Языковые модели ИИ не опасны для человечества
Анализ нового исследования о больших языковых моделях и их влиянии на человечество.
Недавнее исследование, проведенное учеными из Университета Бата и Технического университета Дармштадта в Германии, утверждает, что большие языковые модели (LLM), такие как ChatGPT, не обладают способностью к самостоятельному обучению или развитию новых навыков, что позволяет сделать вывод о том, что они не представляют серьезной угрозы для человечества.
В исследовании, представленном на 62-м ежегодном собрании Ассоциации компьютерной лингвистики (ACL 2024), подчеркивается, что хотя языковые модели способны хорошо следовать инструкциям и демонстрировать языковые навыки, у них отсутствует возможность самостоятельно осваивать новые умения без внешних указаний. Это делает их контролируемыми, предсказуемыми и относительно безопасными для использования.
Группа исследователей под руководством профессора Ирины Гуревич из Технического университета Дармштадта произвела ряд экспериментов для оценки способности моделей справляться с новыми задачами. Полученные результаты говорят о том, что сочетание навыков следования инструкциям и лингвистических способностей объясняет как возможности, так и ограничения LLM.
Доктор Тайяр Мадабуши также отметил, что опасения по поводу экзистенциальной угрозы, исходящей от LLM, высказывают не только широкая публика, но и некоторые видные исследователи искусственного интеллекта по всему миру. Тем не менее, результаты тестирования четко демонстрируют отсутствие у LLM способности к сложному мышлению.
«Хотя важно устранить существующий потенциал к неправильному использованию ИИ, например, к созданию фейковых новостей и повышенному риску мошенничества, было бы неразумно вводить строгие меры на основе предположительных экзистенциальных угроз», — добавил доктор Тайяр Мадабуши.
Профессор Гуревич добавила, что выводы исследования не предполагают полное отсутствие угроз от ИИ. «Скорее, мы указываем на то, что варианты возникновения сложных мыслительных навыков, которые могут повлечь определенные угрозы, не находят подтверждения в реальности, и мы можем эффективно контролировать процесс обучения LLM», — заметила она.