О научно-технической революции…

Способен ли ГИИ ускорить научно-технический прогресс?


Вы часто в новостях слышите: «ГИИ открыл новые материалы с невиданной скорость, создал новые лекарства, изобрел ракетный двигатель». #Все это фейк из-за непонимания нюансов работы технологии.

Изначально сделаю разделение на продукты (ChatGPT, Claud, #GEMINi и другие) и технологию, на которой базируется ГИИ. С продуктами все понятно – это забавная игрушка, имеющая околонулевую практическую ценность и нулевой научно-технический потенциал, но с технологией иначе и не все так однозначно.

#Наука – это сложная система, включающая изучение причинно-следственных связей, а также механизмов взаимодействия объектов и процессов.

ГИИ – это лишь инструмент, базирующиеся на совершенно иной технологии, которая не может быть напрямую применима к R&D.

С точки зрения науки ГИИ помогает работать с неструктурированными массивами информации, искать корреляции и зависимости, обеспечивать классификацию данных и создавать пространство векторов/вероятностей.

Например, лично в своих исследовательских проектах я использую связку #EXCEL + Python + SQL + комплекс дата провайдеров по финансовой и экономической статистике + #GOOGLe/Yandex, которые были заменены на связку ChatGPT/Perplexity.

ChatGPT/Perplexity работают в связке для поиска актуальной информации, как решить какую-то проблему или задачу в программировании, настройке ИТ комплексов, разработке формулы или как навигатор по инструкциям/гайдам/мануалам + очень редко в классификации неструктурированных массивов данных.

Как показывает опыт, ГИИ имеет нулевую ценность в аналитике данных и научно-исследовательских проектах – пользы действительно нет, но как более эффективная замена #GOOGLe и Wikipedia –
да. Конспектирование / экстракт отчетов с использованием ГИИ (основная функция у них) редко провожу.

Поэтому, когда вижу, что ГИИ создал ракетный двигатель – это просто смех от вопиющей тупости журналистов. Даже в микромодуле для простых расчетов ГИИ налепит десятки ошибок, которые придется исправлять три часа, а сложные и многофакторные проекты – тут даже речи не идет.

Весь раздутый хайп вокруг ГИИ действительно выглядит необоснован
ным.

• Проблема в критической низкой точности выходных результатов, что абсолютно неприемлемо для научных расчетов и проектов, где требуется подтвержденная качественная информация (юриспруденция, финансы и страхование, медицина и т.д.).

• ГИИ регулярно галлюцинирует (в будущем этот баг можно минимизировать, хотя полностью исключить не получится).

Низкая надежность приводит к тому, что к любой выходной информации ГИИ относишься с недоверием, что требует времени и ресурсов для проверки и верификации, что снижает производительность.

LLM производят низкокачественную и ненадежную информацию, которая затем всасывается обратно в другие LLM. Модели становятся необратимо загрязнен
ными.

• Современные большие языковые модели (LLM) научились распознавать шаблоны/паттерны, но не понимают лежащие в их основе концепции и причинно-следственные связи, поэтому они изначально тупы, хотя чисто технические «эрудированы» из-за концентрации данных. LLM обучают на наборе доступных данных — тексте, изображениях и аудио, а не на прямом взаимодействии с физическим миром.

• Модели могут отражать предвзятости и перекосы в данных, на которых они обучались. Обучение на доступных данных приводит к тому, что модели не могут выйти за пределы предоставленной информации и сделать выводы на основе реального опыта или экспериментов. Это ограничивает их способность к инновациям и приспособлению к новым и неожиданным ситуациям.

• Ограниченная длина контекстного окна, что приводит к утрате нити повествования или «забывании» исходных корректировок.

• Ограниченность масштабирования и отсутствие самообучения в публичных моделях.

• Нет критерия оценки выходных данных (нет критерия ошибки), поэтому ГИИ не может эффективно управлять вектором генерации результатов.