Компании Google и OpenAI совместно с Калифорнийским университетом и Стэнфордским университетом сформулировали пять практических проблем, которые необходимо учитывать разработчикам искусственного интеллекта.

В своей статье авторы решили рассматривать не гипотетическое «восстание машин», о котором так любят говорить фантасты, а потенциальные опасности, связанные с самообучением машин.

Вот пять проблем, которые они сформулировали:

  • избегание нежелательных побочных эффектов (робот-уборщик может разбить базу, если это ускорит уборку комнаты);
  • избегание жульничества (робот может попросту прикрыть мусор, а не убрать его);
  • гибкая потребность в надзоре (если робот-уборщик может посоветоваться с человеком при выполнении той или иной задачи, то он не должен надоедать вопросами);
  • безопасное обучение (уборщику не стоит перебирать всевозможные варианты, например, не стоит экспериментировать и протирать розетку мокрой тряпкой);
  • устойчивость к смене деятельности (уборка в цехе металлообработки и химической лаборатории принципиально отличается).

Исследователи предлагают несколько способов бороться с приведёнными проблемами: ввести человеческий надзор, использовать симуляции для обучения и ограничить пространство для деятельности роботов. Однако специалисты считают, что ни одно из существующих на сегодняшний день решений не является окончательным и всеобъемлющим.

comments powered by HyperComments
Кот-редактор
Emperor of catkind. I controls the spice, I controls the Universe.