Специалист по ИИ призвал бомбить слишком мощные ЦОД-ы, чтобы ограничить обучение искусственного интеллекта
В мире всё больше людей говорит о необходимости контролировать развитие искусственного интеллекта (ИИ). И это не только медийные персоны и обыватели. С такими заявлениями выступают и профильные специалисты. Специалист в области искусственного интеллекта Елиэзер Юдковский (Eliezer Yudkowsky) заявил, что нужно ограничить вычислительные мощности для обучения ИИ по всему миру. А для этого, по его словам, можно даже бомбить слишком мощные центры обработки данных на территории других стран.
Сгенерировано нейросетью Midjourney
По мнению Юдковского, выживание человечества и биологической жизни вообще на данный момент находятся в потенциальной опасности из-за развития ИИ, причём этот процесс никак не контролируется. Эксперт считает, что появление полноценного ИИ, способного осознавать себя, угрожает всем.
По словам специалиста, нужно запретить эксперименты с ИИ всем компаниям, кроме государственных и военных ведомств, а ЦОД-ы-нарушители он предлагает бомбить, поскольку любой конфликт между странами будет менее разрушительным, чем война людей с ИИ.
При этом примечателен тот факт, что Елиэзер Юдковский сделал очень много для ускорения развития «общего искусственного интеллекта» (AGI), которой, потенциально, может осознать себя на каком-то этапе.
Подобные вопросы задают и другие. В сети опубликовано открытое письмо, авторы которого предлагают ввести мораторий минимум на 6 месяцев, чтобы отсрочить появление ИИ, более мощного, чем GPT-4. Юдковский положительно оценил эту инициативу, хотя сам и не подписал письмо. А вот Илон Маск (Elon Musk) и другие специалисты в сфере ИИ подписали его.
Также ранее в OpenAI опубликовали ряд критериев для ИИ, которые могут помочь в регулировании этой сферы.