Попытки объяснить, что такое генеративный искусственный интеллект (ИИ) и как он работает, породили целый ряд метафор. От «черного ящика» и «автодополнения на стероидах» до «попугая» и даже пары «кроссовок» — цель всех этих сравнений состоит в том, чтобы сделать понимание сложной технологии более доступным, опираясь на повседневный опыт, даже если полученная аналогия часто оказывается упрощенной или вводящей в заблуждение. Все чаще генеративный ИИ описывают как «калькулятор для слов». Сравнение, отчасти популяризированное генеральным директором OpenAI Сэмом Альтманом, предполагает, что цель инструментов генеративного ИИ — помочь людям обрабатывать большие объемы языковых данных, подобно калькулятору. Аналогию с простым вычислительным прибором справедливо критикуют, поскольку она может скрывать более тревожные аспекты ИИ. В отличие от чат-ботов, у калькуляторов нет встроенных предубеждений, они не ошибаются и не создают фундаментальных этических дилемм. Однако полностью отвергать сравнение тоже опасно, учитывая, что по своей сути инструменты генеративного искусственного интеллекта являются калькуляторами слов. Но важен не сам объект, а практика вычислений. Вычисления в инструментах ИИ разработаны так, чтобы имитировать те процессы, которые лежат в основе повседневного использования человеческого языка. Скрытая статистика языка Большинство носителей языка лишь косвенно осознают, в какой степени их взаимодействие является результатом статистических расчетов. Вспомните, например, о неприятном ощущении, когда вы слышите, как кто-то говорит «перец и соль» вместо «соль и перец». Или представьте странный взгляд, который вы получили бы, заказав в кафе сильный чай, а не крепкий чай. Правила, определяющие выбор и порядок слов, а также многие другие языковые последовательности, возникают из частоты социальных контактов с ними. Чем чаще вы слышите, как что-то произносится определенным образом, тем менее приемлемо будет звучать любой альтернативный вариант. Или, скорее, тем менее правдоподобной будет казаться любая другая рассчитанная последовательность. В лингвистике, обширной области знаний, посвященной изучению языка, эти последовательности называют коллокациями. Это лишь одно из многих явлений, демонстрирующих, как люди вычисляют многословные конструкции, основываясь на том, звучат ли они правильно — кажутся ли уместными, естественными и по-человечески нормальными. Почему ответы чат-бота кажутся правильными Одним из ключевых достижений больших языковых моделей (БЯМ), и, следовательно, чат-ботов является то, что им удалось формализовать этот фактор «ощущения правильности» способами, которые теперь успешно обманывают человеческую интуицию. Они представляют собой одни из самых мощных в мире систем коллокаций. Вычисляя статистические зависимости между токенами (будь то слова, символы или точки цвета) внутри абстрактного пространства, отображающего их значения и связи, искусственный интеллект порождает последовательности, которые не только проходят на данном этапе тест Тьюринга, но и могут влюбить в себя пользователей. Такие достижения стали возможны по причине лингвистических корней генеративного ИИ, которые часто скрываются за развитием технологий. Однако инструменты искусственного интеллекта являются продуктом как компьютерной науки, так и различных разделов лингвистики. Предки современных БЯМ, таких как GPT-5 и Gemini, — инструменты машинного перевода времен холодной войны, созданные для перевода с русского на английский. Но с развитием лингвистики и благодаря таким фигурам, как Ноам Хомский, цель машин сместилась с простого перевода на декодирование принципов обработки естественного (человеческого) языка. Развитие больших языковых моделей происходило поэтапно, начиная с попыток механизировать «правила» языков (например, грамматику), внедрения статистических подходов, измеряющих частоту словосочетаний на основе ограниченных наборов данных, и заканчивая современными моделями, которые используют нейронные сети для генерации подвижного языка. Однако базовая практика вычисления вероятностей осталась прежней. Хотя масштаб и форма неизмеримо изменились, современные инструменты ИИ по-прежнему являются статистическими системами распознавания паттернов. Они предназначены, чтобы вычислять, как люди выражают знания, поведение или эмоции, не имея прямого доступа к ним. Если вы попросите чат-бота «раскрыть» этот факт, он охотно это сделает. ИИ всегда только вычисляет Почему же люди не сразу это осознают? Одна из основных причин связана с тем, как компании описывают и называют процессы, выполняемые инструментами генеративного искусственного интеллекта: они не «вычисляют», а «мыслят», «рассуждают», «ищут» или даже «фантазируют». Подразумевается, что, разгадав формулу использования языковых паттернов человеком, ИИ получит доступ к ценностям, которые люди передают через язык. Пока что этого не произошло. Искусственный интеллект способен вычислить, что «я» и «ты» с наибольшей вероятностью сочетаются со словом «любовь», но он не является этим «я» (это не личность), не понимает «любовь» и, если на то пошло, не понимает вас — пользователя, пишущего запросы. Генеративный ИИ всегда лишь вычисляет. И не следует принимать это за нечто большее. По материалам статьи «Actually, AI is a ‘word calculator’ – but not in the sense you might think» The Conversation