Как уязвимость искусственного интеллекта может угрожать роботам и беспилотникам
Исследование показывает уязвимость робототехнических устройств с ИИ к взлому, что может привести к серьезным последствиям.
Исследователи из Пенсильванского университета выявили, что различные робототехнические устройства с интегрированными алгоритмами искусственного интеллекта имеют серьезные уязвимости, позволяющие их взломать. Учёные предупреждают, что если компрометация языковой модели на компьютере может привести к нежелательным последствиям, то взлом роботов и беспилотных автомобилей может стать настоящей катастрофой.
Специалисты Penn Engineering назвали метод взлома робототехники LLM RoboPAIR. Уже пострадали такие устройства, как Dolphins LLM от NVIDIA, Clearpath Robotics Jackal UGV и Unitree Robotics Go2 quadruped. Данная ситуация становится более тревожной, так как этот метод показал стопроцентный успех в процессе работы.
«Наша работа указывает на то, что на текущий момент большие языковые модели не обеспечивают достаточной безопасности при взаимодействии с физическим миром»
Некоторые исследователи, чьи мнения опубликованы в онлайн-журнале IEEE Spectrum, подчеркивают, что взлом роботов оказывается удивительно простым. Эта легкость вызывает еще большее беспокойство, так как в отличие от использования LLM на компьютерах и смартфонах, где искусственный интеллект применяется для генерации текстов, изображений и персонализированных рекомендаций, робототехнические системы функционируют в физическом мире и могут причинить реальный вред.
Например, угрожающий робот может стать средством наблюдения за действиями третьих лиц, а если он вооружён, то после взлома может представлять опасность для здоровья людей. В результате авторы исследования призывают к необходимости скорейшего внедрения мер защиты, ограничивающих действия роботизированных систем под управлением искусственного интеллекта.