Global-News.com.ua

какие этичные угрозы несет использование искусственного интеллекта — Finance.ua

Март 19
14:22 2023

Сегодня 14:13 — Технологии&АвтоВопросы этики ИИ дискутируются уже многие годы. В 2021 году ЕС и Китай выпустили свои рекомендации (guidelines), которые должны обеспечивать нравственное развитие и внедрение систем искусственного интеллекта. Лавинообразное внедрение больших речевых моделей еще больше привлекло внимание к вопросам этики ИИ.
Об этом пишет speka.media.
Где ИИ использовать этично, а где не очень
Есть фундаментальные факторы этичных рисков применения искусственного интеллекта, основанные на угрозах основным правам человека. Поэтому есть отрасли, где, в зависимости от применения, ИИ может вызывать более существенные риски и потребует ограничений глубины применения и дополнительного контроля.
Можно выделить несколько уровней глубины применения ИИ. На поверхности не слишком важны решения, например запись к врачу. Это те решения, которые мы уже сейчас готовы делегировать искусственному интеллекту.
Более сложные решения могут приниматься с предварительным контролем человека. К примеру, заявление на получение гражданства: искусственный интеллект может агрегировать и анализировать анкетные данные заявителя и готовить предварительное заключение. Но окончательное решение будет приниматься государственным служащим.
Следующий уровень — когда искусственный интеллект получает автономию и требует только постконтроля от человека. Здесь глубина применения искусственного интеллекта зависит от отрасли. Это может быть тот же миграционный контроль, правосудие (сначала административное, например, штрафы за парковку), решение о принятии человека на работу и т.д. Здесь высоки риски неэтичного применения искусственного интеллекта.
Отдельные применения ИИ, например дистанционная биометрическая идентификация — технологии идентификации по лицу, походке, осанке человека и т.п., будут высокорисковыми, так как могут нарушать права человека или угрожать его безопасности и здоровью.
Основные риски возникают с появлением таких инструментов, как ChatGPT:
Первая группа — это риски для личных данных и конфиденциальности. Речевые модели, во-первых, могут делать очень много обобщений, сочетаний информации и выводов из полученных данных, которые могут быть недоступны для человека, анализирующего информацию.
Например, из наборов данных о поведении человека в соцсетях и интернете в целом, тех же запросов к чат-ботам больших речевых моделей, можно делать глубокие выводы относительно его психического состояния, привычек, расписания дня и т.д. Сочетание больших массивов данных и их анализ ИИ создают дополнительные угрозы конфиденциальности, которые не очевидны для пользователей, так как отдельно эти данные не создают угроз.
Следующая группа — это риски сегрегации. Речевые модели, за счет того, как именно и на основе каких данных обучаются, могут отдавать предпочтение отдельным социальным группам. Они будут лучше работать с этими группами, а другим уделять меньше внимания и маргинализировать их, исключать определенные меньшинства (этнические или другие) и воспроизводить человеческие предубеждения по отношению к этим меньшинствам.
Третья группа рисков — это неточность и ложность информации. Это, например, некорректная медицинская или правовая помощь. Речевые модели не очень хорошо отличают факты от измышлений, но при этом создают впечатление, что они являются достоверными собеседниками. Это может создавать множество угроз.
По материалам: SpekaЕсли Вы заметили ошибку, выделите необходимый текст и нажмите Ctrl+Enter , чтобы сообщить нам об этом.Finance.ua/Все новости/Технологии&Авто/Тренды ИИ: какие этичные угрозы несет использование искусственного интеллекта

Share

Статьи по теме

Последние новости

Прощай, «Аська». ICQ прекратил работу

Читать всю статью

Наши партнёры

UA.TODAY - Украина Сегодня UA.TODAY