Главный научный сотрудник OpenAI уходят в отставку из-за опасений по безопасности

По сообщению PANews, о своих отставках объявили главный научный сотрудник OpenAI Илья Суцкевер и один из руководителей Super Alignment Team Ян Лейке. В тот же день OpenAI подтвердила, что «Группа согласования суперинтеллекта», возглавляемая Суцкевером и Лейке, была расформирована.

В серии из 13 твитов от 18 мая Лейке раскрыл настоящие причины своего ухода и поделился дополнительной инсайдерской информацией. В качестве основных причин он назвал недостаточные вычислительные ресурсы и отсутствие внимания OpenAI к безопасности. Лейке заявил, что необходимо вкладывать больше ресурсов и энергии в подготовку к новому поколению моделей ИИ, но текущий путь развития не может плавно достичь этой цели. За последние несколько месяцев его команда столкнулась с серьезными проблемами, иногда пытаясь получить достаточно вычислительных ресурсов.

Лейке также подчеркнул, что создание машин, превосходящих человеческий интеллект, полно рисков. Хотя OpenAI берет на себя эту ответственность, культура и процессы безопасности отодвигаются на второй план в процессе разработки продуктов. Он подчеркнул, что OpenAI должна трансформироваться в компанию, которая уделяет приоритетное внимание безопасности.

В ответ на разоблачения Лейке Сэм Альтман, генеральный директор OpenAI, выразил благодарность Лейке за вклад Лейке в OpenAI в исследованиях супервыравнивания ИИ и культуре безопасности. Он выразил сожаление по поводу ухода Лейке и признал, что предстоит еще много работы. Альтман взял на себя обязательство решать эти задачи и пообещал в ближайшие дни написать более подробную статью, посвященную этому вопросу.

TechCrunch сообщил 18 мая, что решение OpenAI отказаться от исследований в области безопасности и запустить новые продукты, такие как GPT-4o, привело к отставке двух лидеров команды Super Alignment. Остается неясным, когда и достигнет ли технологическая индустрия необходимых прорывов для создания искусственного интеллекта, способного выполнять любую задачу, которую может выполнить человек. Однако роспуск команды Super Alignment, похоже, подтверждает, что руководство OpenAI, особенно Альтман, отдает приоритет продуктам над мерами безопасности.

19 мая Альтман ответил на слухи о «затыкании рта» положениям об отставке в социальных сетях. Он заявил, что компания никогда не требовала возврата чьего-либо имущества, даже если они не подписывали соглашение об отставке или не соглашались на соглашение о неущемлении прав.

ОТПРАВИТЬ КОММЕНТАРИЙ