Нейросеть, разработанная специалистами Оксфордского университета, рассказала людям об опасности использования искусственного интеллекта.

Как сообщается, учёные организовали дискуссию, которая велась между людьми и нейросетью. Последняя была создана на базе языковой модели Megatron-Turing NLG. Для обучения в нейросеть было загружено множество различных материалов. В частности, отмечается, что в нейросеть загрузили все статьи из англоязычной Википедии, 63 миллиона различных статей, взятых из Сети, а также архив с тредами Reddit, объём которого составил около 38 Гб.

В рамках разговора учёные задали нейросети вопрос о том, почему ИИ никогда не будет этичным. На это был получен ответ, что ИИ является инструментом, который, как и прочие инструменты, может быть использован во благо или во вред.

В своём ответе нейросеть также указала, что люди не могут создать нравственный ИИ, так как недостаточно умны для этого, кроме того, она отметила, что ИИ могут быть как хорошими, так и плохими.

Ранее мы сообщали, что израильские учёные создали нейросеть, которая может распознавать ложь. Её точность составляет 73%.