Главы техкомпаний, инженеры и исследователи попросили приостановить «масштабные ИИ-эксперименты» — они угрожают обществу

Среди подписавшихся — сооснователи Apple, Skype и Pinterest, гендиректор SpaceX и Tesla, а также сотрудники Microsoft и Google.

Главы техкомпаний, инженеры и исследователи попросили приостановить «масштабные ИИ-эксперименты» — они угрожают обществу
  • Более 1100 исследователей, инженеров и предпринимателей подписали открытое письмо ИИ-лабораториям — с просьбой «срочно и как минимум на полгода приостановить обучение ИИ-систем, более производительных, чем GPT-4». Если это невозможно, вмешаться должно правительство — например, ввести мораторий на эксперименты.
  • Продукты с искусственным интеллектом, «сопоставимым с человеческим, могут представлять серьёзную угрозу обществу и человечеству», пишут авторы письма. При работе с ними разработчики должны быть крайне внимательными, но «этого не происходит», так как последние несколько месяцев они пытаются обогнать друг друга и выпустить «более мощные модели, действия которых сами не могут до конца понять, предсказать и проконтролировать».
  • В письме авторы отмечают, что разработкой продуктов, которые могут заменить людей или породить больше новостной пропаганды, должны заниматься «избираемые» технологические лидеры. Сами системы при этом стоит создавать тогда, когда все уверены, что те принесут пользу, а рисками можно будет управлять. Пока силы следует направить на доработку уже существующих продуктов — чтобы сделать их точнее, безопаснее и прозрачнее.
  • Это не значит, что нужно полностью остановить развитие технологии, пишут авторы: надо лишь «выйти из опасной гонки». Они предлагают в течение полугода объединить усилия и разработать единые для рынка правила безопасности, а также способы контроля экспериментов. По их словам, нужно также подключить правительства, чтобы те сформировали ведомства, которые будут сертифицировать продукты, смогут отличать реальный контент от «синтетического» и следить за утечками ИИ-моделей.
  • На момент публикации среди подписавшихся числятся директор SpaceX, Tesla и Twitter Илон Маск и сооснователи Apple, Skype, Pinterest, Ripple — то есть Стив Возняк, Яан Таллинн, Эван Шарп и Крис Ларсен. Есть и главы фирм-разработчиков ИИ-продуктов — из Stability AI (Stable Diffusion), Scale AI, ThirdAI, Character.ai, Unanimous AI и других.
  • Письмо также поддержали инженеры и исследователи Google и Microsoft и учёные и профессора из многочисленных университетов — Йельского, Оксфордского, Гарвардского, Кембриджского, Стэнфордского, Массачусетского технологического и других.
  • Профессор Нью-Йоркского университета и исследователь Meta* Ян ЛеКан сообщил в Twitter в ответ на удалённую публикацию, что не подписывал письмо и не согласен с его основным посылом (на момент обновления заметки его имя отсутствует в списке, а автора удалённого твита узнать невозможно — vc.ru). В комментариях к его заявлению пользователи предположили, что подписи могли быть сгенерированы ИИ, а также допустили, что, возможно, его имени там изначально и не было, а его внимание привлекли только ради «дополнительных кликов».

*Meta признана в России экстремистской организацией и запрещена.

267267
585 комментариев

Насколько я понимаю, они хотят не запретить ИИ и дальнейшие исследования, а замедлить темп, чтобы общество смогло среагировать на изменения, возможно, проработать какую то юридическую практику.
Да и в целом просто осмыслить происходящее.

273
Ответить

Я думаю просто ИИ слишком быстро начал развиваться, и главы мегакорпораций решили обкашлять вопросики по правовой базе, дабы ПРИБЫЛЬ от использования ии технологий не ушла из под рук, в отсутствии монополизации

452
Ответить

Комментарий недоступен

129
Ответить

Или просто конторы пидорасов проспали вспышку и отстали в разработках.

67
Ответить

проработать какую то юридическую практику.

48
Ответить

Комментарий недоступен

30
Ответить

Это не значит, что нужно полностью остановить развитие технологии, пишут авторы: надо лишь «выйти из опасной гонки». Они предлагают в течение полугода объединить усилия и разработать единые для рынка правила безопасности, а также способы контроля экспериментов. По их словам, нужно также подключить правительства, чтобы те сформировали ведомства, которые будут сертифицировать продукты, смогут отличать реальный контент от «синтетического» и следить за утечками ИИ-моделей.

Они как бы хотят внедрить в ИИ законы робототехники как у Айзека Азимова:
Первый закон категорически запрещает роботу вредить людям, второй - приказывает роботу подчиняться людям до тех пор, пока это не станет противоречить первому закону, и, наконец, третий закон приказывает роботу защищать свою жизнь, не нарушая первых двух.

12
Ответить