Проблемы безопасности искусственного интеллекта

Проблемы безопасности искусственного интеллекта

Выпуск 18(6742) от 16 сентября 2021 г.
РУБРИКА: РОБОТОТЕХНИКА

В связи с перспективами внедрения в повседневную жизнь все большего числа роботов, оснащенных искусственным интеллектом (ИИ), актуальность вопроса о безопасности автоматизированных и роботизированных возрастает. При этом акцент делается на прагматичные аспекты обеспечения безопасности. В частности, об измерении степени безопасность автономных систем в приложениях, которые на данный момент не являются критически важными, но требуют надежности порядка 99,999 %.

Яркие презентации систем с ИИ, наподобие презентации робота-помощника Tesla, вызывает постоянные дискуссии о безопасности искусственного интеллекта и о том, как автоматизированные системы могут быть протестированы и верифицированы до начала использования на улицах городов и в производстве. Первым позитивным шагом, принятым регулирующими органами, является признание того, что инциденты с ИИ, связанные с автомобилями, использующими перспективные системы помощи водителю (ADAS), являются авариями, а не несчастными случаями. Это очень существенно, так как в автомобильной промышленности термин «авария» используется в случаях, когда -кто-то является виновником происшествия и понесет ответственность. Термин же «несчастный случай» означает, что конкретного виновника нет и никто не будет наказан.

Многочисленные исследователи попытаются определить инженерные требования для создания более безопасных систем ИИ. Например, Центр безопасности и новых технологий Джорджтаунского университета (США) в настоящее время наиболее существенными считает четыре момента: объяснимость, стандартизацию, создание специальной дисциплины и выработку критериев (см. таблицу).

Современные системы ИИ во многих отношениях становятся все более мощными, но у них, по-прежнему, остается много слабых сторон. Так, у систем ИИ часто отсутствует -какое-либо подобие здравого смысла, их легко обмануть или сбить, и они допускают ошибки неожиданным и непредсказуемым образом. Соответственно, в настоящее время высокая степень доверия к системам ИИ, допускающим ошибки, может иметь серьезные последствия. Часто экспертам бывает трудно или невозможно понять, почему происходят подобные ошибки.

Центральная проблема заключается в понимании того, как функционируют системы искусственного интеллекта в качестве черного ящика – ​или того, что стало называться ИИ. То есть речь идет об «объяснимости». Для решения этой проблемы специалисты Джорджтаунского университета и предлагают создать национальную испытательную площадку для средств и систем, управляемых ИИ. Основная цель такой площадки – ​установление параметров обеспечения безопасности систем ИИ, основанных на глубоком обучении. Сегодня не существует общепринятого определения безопасного ИИ и стандартного способа тестирования реальных систем ИИ на предмет риска несчастных случаев.

Хотя существуют проверенные методологии тестирования более ранних экспертных систем, используемых в отказоустойчивых приложениях, таких как автопилоты самолетов, эквивалента для искусственного интеллекта нет. Эти методы просто не работают в случае использования методик глубокого обучения.

Эксперты считают, что нужно приложить гораздо больше усилий для разработки новых методологий – ​это особенно актуально при использовании систем и средств, управляемых ИИ там, где ошибки или сбои могут привести к действительно серьезным последствиям. Правда уже есть некоторые способы предварительного тестирования ИИ-систем, позволяющие в целом определять то, что они могут и чего не могут, а также когда они будут работать, а когда нет.

Компании-пионеры, такие как Tesla, могут прийти к этой точке зрения, даже когда они продвигают технологию ИИ с помощью таких прототипов, как Tesla Bot – ​его планируется представить в следующем году. При этом с одной стороны Tesla рекламирует «хорошую» предсказуемость своего автопилота Tesla (утверждая, что регуляторы начинают лучше относиться к подобным изделиям), а с другой – ​признает возможность непредвиденных последствий. Примечательно что заявил Илон Маск во время презентации прототипа: «Конечно, Tesla Bot призван быть дружелюбным. Он устанавливается таким образом, чтобы – ​на механическом уровне, на физическом уровне – ​потребитель мог убежать от него или преодолеть его действия. Надеюсь, этого никогда не случится, но заранее точно всего не предвидеть». Отмечается, что Tesla Bot и другие недавно представлявшиеся средства и системы, управляемые ИИ, представляют собой только ранний эволюционный шаг.

Ситуация осложняется тем, что специализированной инженерной дисциплины, ориентированной исключительно на ИИ, на самом деле не существует. Также нет никаких технических стандартов, нет понимания того, какой результативности нужно достичь и каковы критерии для оценки результативности ИИ.

То, что развитие ИИ приближается к переломному моменту, очевидно. Но до тех пор, пока не будут решены перечисленные проблемы, и в первую очередь вопросы безопасности и надежности, сфера ИИ не станет областью серьезных капиталовложений крупного бизнеса.


George Leopold. AI Safety Moves to the Forefront. EETimes, 08.23.2021 https://www.eetimes.com/ai-safety-moves-to-the-forefront/?utm_source=newsletter&utm_campaign


ЧИТАЙТЕ ТАКЖЕ