OpenAI финансирует исследования ИИ для предсказания моральных решений
OpenAI поддерживает исследование алгоритмов, способных предсказывать моральные суждения людей, выделив грант Университету Дьюка.
OpenAI выделяет средства для исследований, направленных на разработку алгоритмов, предсказывающих моральные суждения людей. Об этом сообщает TechCrunch, ссылаясь на заявление, поданное в налоговую службу США.
Стартап поддержал проект «Исследование ИИ-морали», предоставив грант исследователям Университета Дьюка.
На данный момент информации о проекте немного, а главный исследователь Уолтер Синнотт-Армстронг воздержался от комментариев касательно достигнутых результатов. Срок действия гранта истекает в 2025 году.
Ранее Синнотт-Армстронг совместно с яной Борг написали книгу, в которой обсуждают потенциал искусственного интеллекта как «морального GPS», помогающего людям принимать более продуманные решения.
Цели и задачи проекта
В рамках данного гранта команда намерена:
- разработать алгоритмы для предсказаний моральных суждений в конфликтных ситуациях;
- изучить применение этих алгоритмов в медицинской, правовой и деловой сферах;
- оценить возможность делегирования решений ИИ в различных ситуациях.
Вместе с другими группами исследователи создали алгоритм, направленный на определение приоритетов при распределении донорских почек.
Цель финансируемой OpenAI работы заключается в обучении алгоритмов для предсказаний моральных суждений человека в вызовах,.
Также стоит отметить, что OpenAI, основанная Сэмом Альтманом, готовится к запуску нового ИИ-агента, который получил кодовое название «Оператор».