Исследование, проведенное учеными из Университета Бат и Технического университета Дармштадта, пролило свет на возможности и ограничения больших языковых моделей (LLM), таких как ChatGPT. Результаты этого исследования были представлены на 62-й ежегодной конференции Ассоциации вычислительной лингвистики (ACL 2024).

Авторы работы пришли к выводу, что LLM не обладают способностью к самостоятельному обучению или приобретению новых навыков без явных внешних указаний. Это подчеркивает безопасность и предсказуемость таких моделей, поскольку они не могут выходить за рамки заданного им программного обучения.

На конференции было демонстрировано, что даже самые продвинутые языковые модели ограничены в своих возможностях и могут эффективно выполнять только те задачи, для которых они были напрямую подготовлены. Таким образом, любые опасения относительно того, что LLM могут самостоятельно развивать сложные навыки или осуществлять независимое планирование, не имеют под собой оснований.

Эти результаты особенно важны в контексте продолжающихся обсуждений о потенциальных рисках и возможностях, связанных с использованием больших языковых моделей. Они подтверждают, что LLM могут быть мощными инструментами для выполнения конкретных задач, но их действия предсказуемы и контролируемы в рамках их программирования.