Исследователи из Оксфордского университета и британской компании DeepMind (с недавних пор принадлежит корпорации Google), занимающейся разработками в сфере искусственного интеллекта (ИИ), распространили по многим крупным и влиятельным СМИ стран Запада статью с пугающим предупреждением.

Как сообщает об этом популярный сайт BGR (Boy Genius Report), учеными утверждается, что угроза от ИИ стала «больше, чем считалось ранее»: искусственный интеллект, со значительной вероятностью, однажды все-таки «взбунтуется» и уничтожит человечество. Перевод основных положений публикации представлен изданием discover24.ru.

Согласно статье ученых из Оксфорда и DeepMind, степень угрозы от ИИ способна измениться в зависимости от ряда условий, которые определили британские исследователи.

«Это далеко не первый случай, когда ученые рассматривают ИИ как возможную угрозу. Но новая статья интригует из-за весьма правдоподобных предположений, на которые она опирается», – отмечает BGR.

Главным из этих предположений, по мнению исследователей, является то, что «вмешательство ИИ в предоставление своих же функциональных возможностей будет иметь очень плохие последствия», – подчеркнул в своем Твиттер-аккаунте один из авторов статьи Майкл Коэн. Он заявляет, что условия, выявленные исследователями, показывают, что вероятность «угрожающего» сценария выше, чем в это отмечалось в любых других предыдущих исследовательских работах.

Кроме того, ученые из Оксфорда и DeepMind заявляют, что выявленная ими «угроза ИИ» грозит экзистенциальной катастрофой. И что такое не просто возможно, а даже «очень вероятно».

Одна из самых больших проблем, как отмечают Коэн и его коллеги-исследователи, заключается в том, что со временем требуется приложить все больше усилий для решения какой-либо проблемы, в итоге – доведя ее до уровня, когда с этим сможет справиться только ИИ. Таким образом, это может поставить людей в противоречие с машинами.

«Если кратко, проблема состоит в том, что всегда можно использовать достаточно сил энергии, чтобы повысить вероятность того, чтобы например, камера всегда фиксировала число 1, но нужно не столь уж много энергии, чтобы выращивать еду. Это противоречие ставит людей в неизбежную конкуренцию с гораздо более продвинутой интеллектуальной системой», – пишет Коэн в своем Твиттере.

Имея это в виду, он поясняет: угроза от ИИ может меняться в зависимости от того, какими методиками его обучают.

Число, на которое ссылается Коэн в своем примере, основано на тесте, который заставляет систему машинного обучения ИИ достичь определенного числа. И как только ему будет показан способ сделать это, он сможет использовать больше энергии для оптимизации достижения этой цели. Это интригующее предположение, которое показывает, почему так много людей обеспокоены угрозой ИИ.

Очевидно, что приведенные в статье примеры не являются единственными возможными исходами. «Возможно, людям вполне по силам найти способ держать машины под контролем. Но это новое исследование поднимает некоторые вопросы о том, насколько мы хотим доверять ИИ в будущем и как мы можем контролировать его, если произойдет экзистенциальная катастрофа», – заключает BGR.