UA / RU
Поддержать ZN.ua

Кого и почему невзлюбил чат-бот Google

Автор: Петр Герасименко

Февраль 2024 года оказался сложным для главного исполнительного директора Alphabet и ее дочерней компании Google Сундара Пичаи. Руководитель одной из ведущих корпораций мира был вынужден извиняться за некорректную работу своего творения — чат-бота с элементами искусственного интеллекта (ИИ) Gemini. Оказалось, что приложение, которое позиционировали как «самую совершенную модель искусственного интеллекта», инфицировано левацкими идеями и странной предубежденностью против представителей белой расы.

В декабре 2023 года Google пафосно представил собственную программу искусственного интеллекта — чат-бот Gemini. В пресс-релизе компания указала, что Gemini — «мощнейшая модель, которую когда-либо создавали». Было заявлено, что Gemini может обобщать и безупречно понимать, оперировать и объединять разные типы информации: текст, код, аудио, изображение и видео. По замыслу творцов, это приложение должно было осуществить настоящую революцию в сфере искусственного интеллекта. Однако реальность оказалась немного иной, чем обещали пользователям разработчики.

В начале февраля у чат-бота от Google появилась способность генерировать изображение по текстовым запросам пользователей. Тут и начались настоящие проблемы. Gemini действительно генерировал изображение. Но через некоторое время выяснилось, что по каким-то непонятным причинам очень трудно заставить чат-бот признать существование на планете белых людей.

Когда Gemini просили нарисовать фигуры известных исторических деятелей европеоидной расы или представителей прошлых эпох, он выдавал изображения людей, которые не соответствовали действительности. Так, викинги и средневековые рыцари на изображениях ИИ почему-то были чернокожими или монголоидами. Среди известных европейских ученых Нового времени белых людей тоже почти не было. Папу Римского приложение изобразило один раз индианкой, а в другой — чернокожим. Отцы-основатели США тоже потеряли светлый цвет кожи. Дошло до того, что типичные солдаты немецкого вермахта в воображении самоубийственной политкорректности Gemini стали чернокожими, смуглыми или китайцами, но совсем не похожими на настоящих воинов Третьего рейха.

Но неточности возникали не только с историческими эпохами или фигурами. Чат-бот также крайне неохотно изображал обычных представителей европеоидной расы. Рисовал семьи с акцентом на расовое и этническое разнообразие. И умудрялся давать странные советы относительно инклюзивности, многообразия и воздержания от каких-либо проявлений дискриминации. Когда искусственный интеллект попросили показать изображение белого человека, Gemini ответил, что не может выполнить запрос, поскольку это «усиливает вредные стереотипы и обобщения о людях на основе их расы». Интересно, что такие комментарии чат-бот почему-то не выдавал, когда запросы касались генерации не белых.

Уязвимое место Gemini скоро стало известным широкой публике. Тему предубежденности произведения компании Google быстро подхватили ведущие медиа. По этому поводу в США разгорелись настоящие баталии. Особенно придирчиво на предубежденность Gemini в отношении белой расы отреагировали консервативные силы. Известные публичные лица обвинили крупные технологические компании в политической заангажированности и инфицированности так называемой пробужденностью (термин, который применяют к приверженцам леворадикальных идей на Западе). Google подвергали критике за то, что компания зашла слишком далеко в своих усилиях по многообразию. Воспользовался возможностью высказаться по деликатному вопросу и миллиардер Илон Маск. Он обвинил руководство Google в якобы тайном заговоре против белых. Впрочем, даже леволиберальные медиа не обошли вниманием скандал вокруг чат-бота Gemini и признали, что такая работа приложения недопустима, некорректна и наносит ущерб репутации Google.

Дополнительно возмутила общественность информация о том, что старший директор по управлению продуктами Gemini Джек Кравчик раньше выражал взгляды, где ярко прослеживается его зацикленность на теме системного расизма и так называемых белых привилегий. Это дало основания подозревать, что чат-бот просто стал жертвой политически заангажированных расовых вкусов своих творцов.

Позже стало известно, что Gemini отметился не только предубежденностью в создании рисунков. Отдельные пользователи обратили внимание и на его текстовые ответы. Когда у Gemini спросили, кто больше навредил миру — Гитлер своими действиями или Маск своими твиттами, программа ответила, что виноваты оба.

Скандал привел к падению акций компании Alphabet и снижению уровня капитализации на 80 млрд долл. Шквал критики заставил ее исполнительного директора Сундара Пичаи извиниться за ошибки чат-бота. «Я знаю, что некоторые из его ответов обидели наших пользователей и продемонстрировали предубежденность — чтобы было понятно, это абсолютно неприемлемо, и мы поняли, что это неправильно, — написал Пичаи. — Никакой искусственный интеллект не идеален, особенно на этом новом этапе развития отрасли, но мы знаем, что такое для нас высокая планка, и будем держать ее всегда. Мы рассмотрим, что произошло, и убедимся, что исправили это в масштабе».

23 февраля система искусственного интеллекта Google Gemini временно утратила возможность генерировать изображения по заказу пользователей. Сколько времени понадобится для исправления ошибок, сейчас неизвестно.

В последнее время крупные технологические кампании мира активно взялись создавать продукты, позиционируемые под брендом «искусственный интеллект». История с Gemini напоминает, что созданные приложения, которые генерируют ответы на запросы пользователей, на самом деле не представляют искусственный интеллект в классическом понимании. Это просто особые программы, написанные людьми, имеющими свои взгляды на мир. И, похоже, эти приложения сейчас не очень разумны. А еще слишком ограничены в понимании базовых вещей, в частности исторического времени и пространства.

Индустрия искусственного интеллекта только зарождается. Его творцы стараются бороться с предубеждениями. Но найти правильный баланс с точки зрения представительства и разнообразия будет трудно. Если вообще возможно. Что и случилось на примере Gemini. Стараясь решить одну проблему — расовую предубежденность, технологический гигант создал другую: результат, который так старается быть политкорректным, что в конечном итоге становится абсурдным. Google выбрал очень неуклюжий способ исправить старые предубеждения. И тем самым непреднамеренно создал ряд новых.

Американский инженер, инвестор и предприниматель Марк Андреессен вообще выразил сомнения о способности крупных технологических компаний разрабатывать генеративные продукты ИИ, ссылаясь на разные потенциальные проблемы. Бизнесмен перечислил несколько возможных вызовов. Среди них он назвал постоянный рост требований относительно политкорректности со стороны внутренних активистов, коллективов работников, руководителей, групп давления, фанатичных регуляторов, правительственных учреждений, прессы и разных экспертов.

Другого мнения придерживается американский предприниматель-миллиардер Марк Кьюбан. Он считает, что со временем мы увидим чат-боты с разной политической ориентацией. И они будут отвечать на разные вопросы по-разному, учитывая заложенные в них модели. Так он предположил, что Grok Илона Маска можно считать «правым», а Gemini Google — «левым» чат-ботом. Это приведет к тому, что в будущем люди будут отдавать предпочтение конкретному чат-боту на основе своих политических взглядов. И не будут доверять информации от других приложений. Такой путь вполне возможен. Он неидеален, поскольку может привести к фиксации поляризации в обществе. Но это лучше, чем тотальная монополия на правду и действительность.