OpenAI финансирует исследования ИИ для предсказания моральных решений

OpenAI поддерживает исследование алгоритмов, способных предсказывать моральные суждения людей, выделив грант Университету Дьюка.

👁️ 10
Искусственный интеллект и моральные суждения
Фото: forklog

OpenAI выделяет средства для исследований, направленных на разработку алгоритмов, предсказывающих моральные суждения людей. Об этом сообщает TechCrunch, ссылаясь на заявление, поданное в налоговую службу США.

Стартап поддержал проект «Исследование ИИ-морали», предоставив грант исследователям Университета Дьюка.

На данный момент информации о проекте немного, а главный исследователь Уолтер Синнотт-Армстронг воздержался от комментариев касательно достигнутых результатов. Срок действия гранта истекает в 2025 году.

Ранее Синнотт-Армстронг совместно с яной Борг написали книгу, в которой обсуждают потенциал искусственного интеллекта как «морального GPS», помогающего людям принимать более продуманные решения.


Цели и задачи проекта

В рамках данного гранта команда намерена:

  • разработать алгоритмы для предсказаний моральных суждений в конфликтных ситуациях;
  • изучить применение этих алгоритмов в медицинской, правовой и деловой сферах;
  • оценить возможность делегирования решений ИИ в различных ситуациях.

Вместе с другими группами исследователи создали алгоритм, направленный на определение приоритетов при распределении донорских почек.

Цель финансируемой OpenAI работы заключается в обучении алгоритмов для предсказаний моральных суждений человека в вызовах,
Уолтер Синнотт-Армстронг
.

Также стоит отметить, что OpenAI, основанная Сэмом Альтманом, готовится к запуску нового ИИ-агента, который получил кодовое название «Оператор».