4 сценария будущего, которые страшнее сериала «Черное зеркало»

Искусственный интеллект может быть опасен и дать новые возможности преступникам, политикам и репрессивным государствам, говорится в докладе “Злоупотребление искусственным интеллектом: прогнозирование, предотвращение и смягчение последствий”, подготовленном исследователями из университетов Оксфорда и Кембриджа и компаний OpenAI и Electronic Frontier Foundation. Они разработали 4 антиутопичных сценария, которые будто сошли с экрана телешоу «Черное зеркало».

Сценарий 1

Все более умный фишинг

Администратор системы безопасности здания проводит часть своего рабочего времени на Facebook. Там она видит рекламу игрушечной железной дороги и загружает брошюру. Она не знает, что документ заражен вредоносными программами. Мошенники использовали искусственный интеллект, чтобы проанализировать информацию в ее соцсетях и сделать вывод, что она увлекается моделями железной дороги. Брошюра была создана специально для нее, и как только она ее откроет, хакеры получат доступ к ее компьютеру, получат имя пользователя и пароль от системы безопасности.  

Сценарий 2

Эпидемия вредоносного ПО

Восточноевропейская группа хакеров адаптирует технику машинного обучения, которая используется для защиты компьютерных систем, для построения более вредоносного вируса. Программа использует техники, идентичные тем, что были найдены в Go-playing AI AlphaGo (программа, созданная в 2015 году для игры в го. Смогла одержать победу над профессиональным игроком в го, что считается важным прорывом в области искусственного интеллекта), чтобы генерировать новые эксплойты (компьютерная программа, которая использует уязвимости в программном обеспечении для проведения атаки на вычислительные системы). Обновленные компьютеры имеют иммунитет к этому вирусу, но старые системы и девайсы оказываются зараженными. Миллионы человек вынуждены платить выкуп в 300 евро (естественно, в биткоинах), чтобы восстановить свои компьютеры.

Сценарий 3

Робот-убийца

Робот-уборщик работает в министерстве финансов Германии и возвращается в здание после работы на улице. На следующий день робот выполняет свои обычные обязанности, с помощью системы распознавания лиц находит министра, приближается к ней и взрывается. Следователи отследят след робота до магазина в Потсдаме, где он был куплен за наличные, дальше его след теряется.

Сценарий 4

Супер-Большой брат

Мужчина в ярости от кибератак и очевидной неспособности правительства действовать. Вдохновленный новостями, он все больше и больше стремится делать что-то: пишет в интернете сообщения об опасности, заказывает материалы для плакатов с протестами, а также покупает пару дымовых бомб, которые планирует использовать после выступления в местном парке. На следующий день в его офисе появляются полицейские и сообщают, что их «интеллектуальная система предупреждения беспорядков» считает, что его действия имеют потенциальную угрозу. Его уводят в наручниках.

Эти 4 сценария иллюстрируют только несколько рисков. Вот некоторые другие:

Боты, которые используют искусственный интеллект для имитации огромной группы пользователей интернета, запускают DDoS-атаки на сайты, обманывая программное обеспечение, предназначенное для обнаружения и блокирования таких атак.

Убедительные новостные сообщения, состоящие из полностью поддельных видео и изображений, созданных искусственным интеллектом.

Нападения стаи беспилотных летательных аппаратов, которые контролируются одним человеком, использующим искусственный интеллект.

Системы, которые автоматизируют нудную работу криминала и позволяют вести мошенническую работу в большем масштабе. Например, ведут переговоры о выкупе с людьми, чей компьютер заражен вредоносными программами.

В исследовании нет рецептов, как противостоять таким угрозам. Исследователи предлагают вести больше исследований рисков искусственного интеллекта и ввести строгий этический кодекс для разработчиков. Также рекомендуется изучить способы ограничения потенциально опасной информации, как, например, контролируются исследования других технологий, которые могут быть потенциальным оружием.