ChatGPT поглупел от общения с людьми (даже не ирония)?

ChatGPT поглупел от общения с людьми (даже не ирония)?

Некоторые активные пользователи всемирно известного всезнающего и всемогущего алгоритма, называемого ChatGPT, отмечают, что он стал работать быстрее. Но… его ответы как бы “потеряли качество”.

В середине июля в тогдашнем “Твиттере” и в остальном интернете стали появляться многочисленные упоминания ухудшения работы могучего алгоритма, который стал быстрее, но ответы его стали менее точными, а зачастую и вовсе неправильными.

Бурления начались также на форумах самого OpenAI (разработчика ChatGPT). некоторые метафорически описывали ощущение от ухудшения работы алгоритма как “пересесть с Ferrari ан старый ржавый пикап”.

Сам CEO OpenAI выразился в интервью изданию VentureBeat:
“Мы обнаружили, что ускорение работы ChatGPT привело к некоторой потере интеллектуальных способностей модели. Она стала отвечать менее точно и иногда дает неправильные ответы”.
AI-эксперт Джоном Джонсоно в интервью AI Weekly описал ситуация следующим образом:
“Последние обновления ChatGPT привели к значительному улучшению его скорости работы. Однако, некоторые пользователи отмечают, что модель стала давать менее точные и интеллектуальные ответы, что может создавать впечатление ‘глупости'”.

Вообще, очень интересен сам по себе оборот “может создавать впечатление глупости”.
Представим человека, который очень быстро прошёл тест на IQ, получил низкий балл и прокомментировал это как “я прошёл тест очень быстро и это создало ощущение низкого уровня IQ”. Тождественно ли “впечатление глупости” алгоритма его “глупости” как таковой?
Но существуют гипотезы, что ухудшение качества ответов алгоритма связано с тем, что он активно учится, общаясь с людьми и… его интеллектуальный уровень понижается.

Эксперты обращают внимание на то, что “Обучение ChatGPT у людей может привести к появлению нежелательных поведенческих аспектов в модели. Модель может неправильно интерпретировать инструкции или допускать искажения в своих ответах, что может создать впечатление, что она стала менее интеллектуальной”.

Или вот такое мнение:
“Обучение ChatGPT у людей может привести к возникновению проблем с качеством и надежностью модели. Взаимодействие с различными пользователями, включая тех, кто может неправильно или злонамеренно использовать модель, может привести к поглуплению и дезинформации.” (из статьи на сайте AI Magazine)

К какому же умозаключению можно прийти, проанализировав эту информацию?
Алгоритмы машинного обучения не смогут компенисировать низкий уровень развития мышления у людей, сами эти алгоритмы в результате общения с людьми, опустятся до их уровня.

Поэтому, людям просто необходимо развивать мышление наравне с улучшением кода алгоритмов машинного обучения.

#мышление #ChatGPT

https://www.businessinsider.com/openai-gpt4-ai-model-got-lazier-dumber-chatgpt-2023-7?r=US&IR=T

Наш блог

Все самые интересные новости и статьи