[Новости] Расформирована команда OpenAI, призванная защищать человечество от рисков ИИ

  • Автор темы Аластар
  • Дата начала

В прошлом году компания OpenAI, известная своими передовыми разработками в области искусственного интеллекта, создала специальную команду Superalignment. Её целью было обеспечение контроля и управления будущими системами ИИ, потенциально способными угрожать человечеству. Однако спустя менее года эта команда прекратила своё существование.

По официальной версии OpenAI, группа Superalignment была глубже интегрирована в общие исследовательские усилия компании для достижения целей безопасности. Но серия твитов Яна Лейке, одного из лидеров распущенной команды, пролила свет на внутренние противоречия между группой безопасности и остальной частью OpenAI.

Лейке, недавно покинувший компанию, заявил, что команда Superalignment испытывала трудности с получением ресурсов для проведения исследований. По его словам, за последние годы в OpenAI культура и процессы обеспечения безопасности отошли на второй план, уступив место ярким продуктам. Лейке подчеркнул, что создание сверхразумных машин — по своей сути опасное занятие, и OpenAI несёт огромную ответственность перед человечеством.

Уход Лейке произошёл вскоре после того, как о своём уходе объявил главный научный сотрудник OpenAI Илья Суцкевер, также входивший в команду Superalignment и являвшийся одним из сооснователей компании. В последние месяцы команду покинули и другие сотрудники, в том числе двое исследователей, уволенных в апреле за предполагаемую утечку информации.

Ранее OpenAI обещала выделить 20% своей вычислительной мощности в течение следующих четырёх лет на решение проблемы контроля мощных систем ИИ. Однако, по словам Лейке, команде Superalignment приходилось бороться за эти ресурсы, и проводить важные исследования по безопасности становилось всё сложнее. Он отметил, что в последнее время его команда «плыла против ветра» и достигла предела в отношениях с руководством из-за разногласий по поводу приоритетов компании.

OpenAI сообщила, что теперь усилия по обеспечению безопасности будут возглавлять другие сооснователи и директора, чьи исследования сосредоточены на языковых моделях и разработке флагманских продуктов, таких как GPT-4. Специалисты по безопасности ИИ останутся в штате, но будут рассредоточены по различным подразделениям компании.


Источник
 
❂A.l.a.s.t.a.r❂
Аластар

❂A.l.a.s.t.a.r❂

Местный копипастер

Сейчас тему просматривают (Всего: 0, Пользователей: 0, Гостей: 0)

Назад
Сверху Снизу