Главная / Заметки / О GPT-4 и прочих системах «искусственного интеллекта»


О GPT-4 и прочих системах «искусственного интеллекта»

24 марта 2023 г.

14 марта 2023 года компания OpenAI объявила о создании новой модели GPT-4 (расшифровывается как Generative Pretrained Transformed 4). По её заявлениям, она уже сейчас справляется с большей частью экзаменов для людей. Из этого некоторые (https://habr.com/ru/company/ods/blog/722644/) делают далеко идущий вывод: надо-де срочно менять систему образования, поскольку эта нейросеть уже обгоняет людей и сдаёт экзамены гораздо лучше, чем «кожаные мешки», а значит, недалёк тот час, когда языковые модели отберут у «кожаных мешков» все рабочие места в мире и полностью упразднят образование как таковое. В общем, GPT-4 не только сломает шпиль МГУ, но и снесёт МГУ целиком! Да ещё и про Омский политех не забудет...

Но на самом деле беспокоиться не зачем: у любой подобного рода модели есть фундаментальные философские ограничения.

Для начала рассмотрим, что в сущности из себя представляет GPT-4 (а равно и любая система «искусственного интеллекта»). Это программа для электронной вычислительной машины. На самом низком уровне ЭВМ производят, естественно, вычисления. Вычисления производятся на процессорах (центральных, графических - неважно, главное, что для этого используется специальная интегральная схема).

Так вот. Любые заявления о том, что какая-то программа обладает интеллектом, равноценны заявлениям о том, что интеллектом обладает процессор. Кусок кремния с размеченными на нём транзисторами, диодами и прочими элементами, оказывается, обладает интеллектом. Звучит как нонсенс, и нонсенсом является, потому что самостоятельно поставить цели, задачи, найти способы их достижения, кусок кремния не может. Он может делать только то, что заложил человек.

Теперь о том, что конкретно делает эта программа. Она производит операции с матрицами, а значит, с числами. Поскольку эта программа является нейросетью, то она основывается в своих расчётах на данных, полученных в результате обучения, на неких статистических закономерностях, которые были выявлены при помощи прогона этой нейросети по огромному массиву данных, и притом многократного, чтобы она выдавала необходимые и более-менее грамотные с точки зрения человека ответы.

Поскольку нейросеть подчиняется статистическим закономерностям, то и при генерации текста она будет опираться на статистические данные и предыдущий контекст, а значит, она, во-первых, не сможет что-то изобрести (как не сможет изобрести кусок кремния), если человек не сделает за неё большую часть работы, а во-вторых, будет гарантированно выдавать ответ вне зависимости от того, осмыслен он или нет, чему есть в Интернете многочисленные примеры (https://habr.com/ru/post/723238/; https://habr.com/ru/post/724460/; https://www.almendron.com/tribuna/artificial-neural-networks-today-are-not-conscious/)

Другой вопрос в том, что многие бизнесы уже стали использовать GPT-4 и платить денежку за доступ к ней! Вот тут создаётся проблема зависимости от OpenAI. А что будет, если OpenAI обанкротится? Ответ очевиден.

Так что GPT-4, равно как и любая другая подобного рода модель, не только не должна привести к исчезновению всех или каких-либо определённых умственных профессий, но и не приведёт к этому, поскольку обязательно найдётся случай, когда продукт генерации придётся дорабатывать напильником до нужного состояния, а для этого (внезапно!) необходимы соответствующие знания, умения и навыки.