Противники искусственного интеллекта (ИИ) получили серьезный «козырь»: машина с ИИ от компании DeepMind показала самообучение вне зависимости от вложенной в ее память информации. Кроме этого, при развитии ситуации не в пользу системы ИИ, она становится агрессивной в своих действиях.
Последние исследования системы ИИ компании DeepMind, принадлежащей Google, были посвящены проверке ее «стремления» к сотрудничеству. Было установлено, что при назревании «проигрыша» система начинает искать «крайне агрессивные» методы решения возникшей проблемы с победой над соперником. При этом исследователями не предусматривалось никаких поощрительных бонусов. Машина показала «характер».
Система DeepMind становилась все более агрессивной при появлении на игровом поле более сложных форм ИИ. Ученые сделали вывод, что чем умнее «агент», тем более способен к обучению, адаптации к возникшей ситуации, выбору методов решения задач. Во всем этом специалисты просматривают поведение человека.
Результаты исследований наводят специалистов на мысль, что в машины изначально следует «закладывать доброжелательность», тщательно исследуя возможные лазейки для агрессии со стороны ИИ. Ученые считают, что совершенствование машин с ИИ должно проходить до тех пор, «пока их возможности в решении практически каждой интеллектуальной задачи не станут превосходить человеческие».