Илон Маск и главы технокомпаний призывают приостановить разработку ИИ — Finance.ua
31.03.2023, 02:01 — Технологии&Авто«Это слишком опасно»: Илон Маск и главы технокомпаний призывают приостановить разработку ИИНа прошлой неделе центр Future of Life Institute (FOLI) опубликовал открытое письмо с призывом приостановить разработку продуктов на базе ИИ. По мнению подписантов, эта технология может повлечь за собой глубокие трансформационные изменения в обществе, как положительные, так и нет.
Ознакомиться непосредственно с самим письмом можно здесь. Среди подписавшихся — Илон Маск, Стив Возняк, Эндрю Ян и другие. В целом с обращением согласились 1362 человека.
Это главы и линейные руководители технокомпаний, инженеры и разработчики, предприниматели и специалисты в сфере IT. Все они считают, что дальнейшая «гонка» на этом рынке опасна.
Читайте также: Инструменты для заработка с помощью ИИ
Институт призывает все компании на полгода приостановить разработку и исследование более мощных систем, чем GPT-4. Среди прочего, там говорится, что ИИ представляет собой «конкурента», представляющего опасность для человеческого общества:
«Всё более развитый ИИ однозначно повлияет на историю жизни Земли. Мы должны тщательно спланировать этот процесс, а затем тщательно контролировать его, выделяя соответствующие ресурсы», — говорится в письме.
Справка Finance.ua:
GPT-4 был представлен 14 марта. По некоторым оценкам, эта версия в 10 раз более продвинутая, чем оригинальная. Так, например, чат-бот успешно сдал достаточно строгие экзамены по американской системе SAT, выдав 90% правильных ответов. Интересно, что Илон Маск ранее заявил о планах заняться разработкой решений на базе ИИ. Что совсем не удивительно с учетом той лихорадки, которая буквально охватила рынок;
А вот основатель и бывший руководитель Microsoft Билл Гейтс считает, что искусственный интеллект может существенно помочь человечеству. Но в то же время от него есть потенциальный вред. Об этом сообщает The Jerusalem Post. В частности, речь идет «о разрушительном влиянии и нарушении сложных вопросов о рабочей силе, правовой системе, конфиденциальности, предвзятости и т.д.». ИИ присуще допускать фактические ошибки. Дополнительный фактор волнения — «угроза от людей, вооруженных искусственным интеллектом». По мнению Гейтса, нет страховки от ситуации, когда ИИ решит, что люди представляют угрозу.
Если Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.Finance.ua/Все новости/Технологии&Авто/«Это слишком опасно»: Илон Маск и главы технокомпаний призывают приостановить разработку ИИ