Google назвала пять принципов безопасности робототехники
Компании Google и OpenAI совместно с Калифорнийским университетом в Беркли и Стэнфордским университетом сформулировали пять практических проблем, которые необходимо учитывать разработчикам искусственного интеллекта. Текст их статьи доступен на ресурсе arXiv.org, пишет N+1.
Один из авторов публикации Крис Ола уверен, что связанные с искусственным интеллектом риски, привлекающие большое общественное внимание, часто слишком гипотетические и спекулятивные. А их статья призвана конкретизировать потенциальные опасности, которые необходимо учитывать при разработках в этом направлении.
Как считают авторы исследования, разработчики систем искусственного интеллекта должны учитывать следующие 5 возможных проблем:
- избегание нежелательных побочных эффектов (например, робот может разбить вазу, если это ускорит процесс уборки);
- избегание жульничества (тот же робот может просто прикрыть мусор, а не убрать его);
- гибкая потребность в надзоре (например, если робот может посоветоваться с человеком при выполнении задачи, он не должен надоедать вопросами);
- безопасное обучение (упомянутому роботу-уборщику не стоит экспериментировать с протиркой розеток мокрой тряпкой);
- устойчивость к смене деятельности (например, уборка в цехе металлообработки и химической лаборатории принципиально отличается).
Среди возможных путей решения исследователи называют использование симуляций в обучении, ограничение пространства деятельности роботов и человеческий надзор. Тем не менее ни один из них не представляет окончательного решения проблемы.