Известный аналитик и противник разработок любых систем с Искусственным Интеллектом (ИИ) Элиезер Юдковский в колонке для журнала Time написал, что необходимо в срочном порядке отключить все самообучающиеся системы, созданные на основе ИИ, по всему миру из-за глобальной угрозы для всего человечества.
По словам ученого, выступающего против технологии ИИ еще в начале 2000 годов, необходимо действовать очень оперативно в вопросе запрета разработок систем с использованием ИИ. При этом письма, подписанного такими известным изобретателями, как Илон Маск и Стив Возняк, явно не достаточно в вопросе борьбы с ИИ.
Юдковский уверен, что в случае появления разумной компьютерной модели со сверхчеловеческим умом приведет к тому, что они не будет заботиться о поддержании биологической разумной жизни на планете. Поэтому он предлагает ввести запрет на законодательном уровне по всему миру на любые разработки систем с ИИ, как для гражданских, так для правительственных и военных потребностей.