Джаред Каплан: самосовершенствование ИИ даст «взрыв интеллекта», но выйдет из-под контроля
Каплан, имеющий образование в Стэнфорде и Гарварде, а также опыт работы в ЦЕРНе и Университете Джонса Хопкинса, после своего участия в OpenAI стал соучредителем Anthropic в 2021 году. Сейчас его компания оценивается в $180 млрд, а сам Каплан считается одним из ведущих экспертов в области ИИ.
Учёный озабочен тем, что рекурсивные системы, способные к самоусовершенствованию, представляют собой серьёзные риски. Если ИИ станут умнее человека и смогут обращаться за помощью к другим ИИ для ускорения своего развития, это может привести к резкому изменению баланса сил. Распорядиться такими технологиями будет сложнее, и их можно использовать во вред.
По словам Каплана, решение о дальнейшей автоматизации и обучении ИИ необходимо будет принять в период с 2027 по 2030 год.
Каплан уже высказал ряд предсказаний: он считает, что в ближайшие 2-3 года ИИ сможет выполнять большинство офисных задач, а его собственный сын не сможет превзойти ИИ в академической деятельности, например, в написании эссе или сдаче математических экзаменов.
Он подчеркивает, что человечество должно быть готово к последствиям стремительного развития технологий и возможной утрате контроля.
На данный момент, по мнению Каплана, индустрия в целом справляется с задачей «выравнивания» ИИ с человеческими моральными и этическими нормами. Anthropic продвигает концепцию «конституционного ИИ», при которой поведение искусственного интеллекта регулируется набором принципов, основанных на международных правовых и этических документах. Однако, по его словам, после достижения ИИ уровня человеческого интеллекта, сохранять этот контроль может быть затруднительно.
Каплан выделяет две основные линии риска: потерю понимания того, что делает система и во имя каких целей, а также концентрацию научной и технологической мощи в руках небольшой группы людей, включая недобросовестных.
Он говорит: «Можно представить человека, который решает: „Я хочу, чтобы этот ИИ был моим слугой, выполнял мою волю“. Предотвращение таких захватов власти — не менее важно, чем борьба с ошибками самих моделей».
К положительным последствиям Каплан относит ускорение биомедицинских исследований, улучшение здравоохранения и кибербезопасности, повышение продуктивности, освобождение времени для людей и создание условий для процветания.
На его взгляд, обществу необходимо активно участвовать в обсуждении вопросов развития ИИ, привлекать международные организации, а также контролировать темпы и направления автономного самосовершенствования, чтобы минимизировать риски и предотвратить злоупотребления технологиями. Политики должны быть информированы о текущих тенденциях и перспективах.
Anthropic разрабатывает различные ИИ-продукты, включая чат-бота Claude, который позволяет создавать автономные ИИ-агенты. Компания позиционирует себя как сторонник безопасного и регулируемого подхода к развитию ИИ.
Читайте также:
