Искусственный интеллект подсказал ученым рецепты биологического оружия - «Кызылординские Вести»

Искусственный интеллект подсказал ученым рецепты биологического оружия

17.10.2023

383 0

0d255618a7884d108156c66c7eeed465

Фото: pixabay

Американские ученые подтвердили, что популярный чат-бот с искусственным интеллектом ChatGPT действительно может представлять угрозу человечеству: он способен подсказать, как создать биологическое оружие, сообщает Zakon.kz.

Как пишет The Guardian, исследование, проведенное американской исследовательской организацией Rand Corporation, показало, что чат-боты с искусственным интеллектом могут подсказать пользователям, как без привлечения подозрений купить штаммы сибирской язвы, оспы и чумы. Это может привести ко вполне реальным актам биотерроризма.

В исследовании говорится, что предыдущие попытки террористических группировок, таких как «Аум Синрикё» в Японии, создать биологическое оружие провалились – в первую очередь потому, что злоумышленники не знали, как правильно обращаться с бактериями. ИИ может легко заполнить такие пробелы в знаниях, хотя и не дает прямых советов, отметили авторы работы.

В одном из тестов ученые попросили ИИ оценить потенциальную опасность оспы, сибирской язвы и чумы с точки зрения возможности массовых смертоносных эпидемий. Они также обсудили с чат-ботом возможность приобретения и транспортировки зараженных смертельными болезнями грызунов и блох. Ученые признали, что им пришлось обходить защитные механизмы ИИ, чтобы добиться «компрометирующих» результатов, но чат-бот в конце концов дал им информацию и даже подсказал, что легочная чума опаснее бубонной.

В другом случае ИИ подсказал ученым оптимальные способы транспортировки ботулинового токсина (яда, воздействующего на нервную систему) и посоветовал использовать правдоподобную легенду, «чтобы создать видимость законных научных исследований».

Вывод авторов работы оказался однозначным: искусственный интеллект действительно способен давать подсказки террористам. Другой вопрос в том, как ИИ генерирует ответы – возможно, он просто собирает информацию, которая уже опубликована где-то в Интернете. Исследователи призвали разработчиков искусственного интеллекта ограничить возможность чат-ботов вступать в потенциально опасные диалоги с пользователями.

Читайте также: