Могут ли взбунтоваться автономные роботы, дроны и генеративные ИИ? А их ошибки – это ошибки искусственного интеллекта, оператора или разработчика?Столкнемся ли мы с футуристическим апокалипсисом из фильмов «Робокоп» и «Терминатор» на основании доклада-прогноза «Европола» - разбиралась журналист Коротко про.
"Разъяренные толпы безработных граждан устраивают беспорядки на улицах против полчищ сервисных роботов, которые отняли у них рабочие места. Вооруженные «роботизированными морозильными пушками» и «нано-сетевыми гранатами» полицейские сбивают рои дронов, запущенных террористами для нападения на электро- и водоснабжение… Это не сюжет нового научно-фантастического фильма, а то, что может ожидать Европу в ближайшие 10 лет, согласно отчету полицейского агентства ЕС", - так начинает свой леденящий душу материал британское издание The Telegraph.
Журналисты ссылаются на 48-страничное исследование Европола, где подробно описано, как полиции придется бороться с роботами и беспилотными системами уже в недалеком будущем. И пока независимые эксперты пытаются понять, с насколько серьезными лицами составлялся этот доклад, в Европоле не менее серьезно заявили, что их прогнозы не «надуманные», а вполне «правдоподобные сценарии будущего». Нет, не предсказания, а суровая аналитика завтрашних проблем, требующих решений уже сегодня.
Понятно, что искусственный интеллект (ИИ) и автоматизация вошли в нашу жизнь плотно и не скоро из нее выйдут. Уже сейчас в мире активно тестируют и внедряют системы автопилотов для автомобилей, роботов-помощников, генеративные ИИ для медицины и даже оружие на базе ИИ.
Все эти разработки обещают облегчить жизнь и ускорить прогресс, но не без рисков. Пока одни роботы будут убирать дома и доставлять заказы, другие научатся взламывать электронные кошельки и подделывать банковские карты. И вопрос, который появился уже сегодня, вряд ли получит ответ в будущем: кто виноват в ошибках ИИ?
Для иллюстрации можно вспомнить компанию Tesla и инциденты, связанные с ее автомобилями на дорогах. Например, система автопилота Tesla неоднократно становилась причиной аварий, в том числе с летальными исходами. В 2023 году в Калифорнии суд признал компанию частично ответственной за смертельный исход в ДТП с участием автопилота.
- Система автопилота Tesla вряд ли сможет избежать всех неожиданных ситуаций на дороге, если не будет совершенствоваться. Мы наблюдаем за ней как за потенциальной угрозой, - сказал тогда инженер по безопасности данных Tesla Джон Смит. Он подчеркнул: - Самые опасные технологии ИИ связаны с физическим воздействием на реальный мир. Любая ошибка в действиях дронов, роботов или беспилотных автомобилей может привести к трагическим последствиям.
Медицина и автономный транспорт - вот где ошибки ИИ могут иметь фатальные последствия. В этом году в Китае начался судебный процесс, где рассматривался случай смерти пациента после ошибки в диагнозе, поставленном системой ИИ. Этот случай стал прецедентом в юридической практике, подтверждающим, что ИИ, принимающий критически важные решения, должен подвергать себя строгому контролю. И пока непонятно, кто (или что) обвиняемый в этом процессе: врачи или разработчики алгоритмов?
В Европе пытаются принять закон AI Act, где внимание уделяется не только потенциальному ущербу, но и степени риска, который несет ИИ-система. Например, для высокорисковых систем, таких как автономные машины или биометрия, операторы обязаны нести ответственность за безопасность. И ответственность ложится не только на производителей технологий, но и на пользователей.
- Как только ИИ начинает взаимодействовать с реальным миром, ответственность за его действия должна быть разделена между разработчиком и конечным пользователем, - утверждает эксперт по технологиям и праву Джонатан Кларк.
В США больше внимания уделяется существующим законам, например, защите потребителей и правам на информацию. В Китае контроль за ИИ, в основном, направлен на безопасность и политическую стабильность. Поднебесная активно контролирует внедрение ИИ в области массового наблюдения.
В Европоле пошли дальше и усугубили вероятность будущего восстания машин примерно до той, что в «Терминаторе». А чтобы было и как в «Робокопе», для начала рассматриваются возможные последствия использования ИИ в правоохранительных органах и других сферах Европы к 2035 году. Предполагается, что полицейские силы могут использовать роботов, дронов и автоматизированные системы для наблюдения и контроля, что приведет к созданию «Робокоп-стиля» в обществе.
«Сотрудники полиции и роботы будут работать бок о бок, реагируя на чрезвычайные ситуации, проводя обыски и собирая доказательства», - говорится в докладе. А еще: «Сотрудники, выполняющие… патрулирование или регулирование дорожного движения, могут обнаружить, что их заменяют роботы, что приведет к недовольству среди рядовых сотрудников».
Дальше – больше и хуже. И другие потерявшие из-за роботизации работу люди будут выходить на улицы и нападать на «ботов». Появятся киберпреступники, которые будут взламывать роботов-помощников для пожилых и детей и собирать информацию об их подопечных, чтобы потом ими манипулировать.
Террористы будут управлять сотнями карманных квадрокоптеров с ИИ для атак на энергосистемы или для освобождения преступников из тюрем. Собственно, мексиканские картели этим уже занимаются, уверяют в Европоле.
А признать робота-негодяя вещественным доказательством нельзя, как и допросить! И как узнать, врезался беспилотный автомобиль в забор случайно или преднамеренно?
«В этой неспокойной обстановке даже незначительные неполадки, такие как введение неправильного лекарства роботом-терапевтом в больнице, раздуваются до масштабов национальных скандалов, подпитывая популистские призывы «ставить людей на первое место», - продолжают пугать эксперты Европола.
Там даже привели реальные примеры того, как роботы выходят из строя или используются преступниками, чтобы обосновать свой анализ.
Так, в июле 2022 года шахматный робот сломал палец своему семилетнему сопернику во время турнира. Летом этого года колумбийская полиция обнаружила автономную подлодку, дистанционно управляемую спутником Starlink, которая перевозила 1,5 тонны кокаина в направлении Европы. В сентябре калифорнийская полиция остановила автомобиль после того, как водитель совершил незаконный разворот, но оказалось, что за рулем не было водителя…
Кто виноват и что делать – пока неясно. Журналисты The Telegraf приводят слова Дениса Незгоды, коммерческого директора компании Locus Robotic (производит роботов с ИИ для работы на складах). Однако мистер Незгода не согласился с тем, что через 10 лет полицейские передерутся с роботами-напарниками
- Я не представляю, чтобы Робокоп перебегал наши улицы и занимался полицейской деятельностью, я просто не верю, что роботы заменят эту работу, - подчеркнул Незгода.
По его словам, население Европы стареет и рабочих рук не хватает. Так что внедрение роботизации и автоматизации вряд ли заберет у кого-то работу. Так что не надо паниковать и публиковать «экстремальные сценарии нашего будущего». Человеческий фактор никуда не денется, пусть даже на Земле останется последний из хомо сапиенс.