Искусственный интеллект (ИИ) уже давно вышел за рамки научной фантастики. Сегодня компьютерные системы, которые могут самостоятельно мыслить, учиться и совершенствоваться, стали неотъемлемой частью нашей повседневной жизни. Появление машинного интеллекта бросает серьезные вызовы системам образования и науки. Уже есть научные статьи, сгенерированные ИИ полностью или частично, патенты, созданные ИИ, а ученики и студенты уверенно используют его чуть ли не каждый день, в частности для письменных работ или ответов на задания. Это порождает шквал дискуссий — от увлечения возможностями ИИ до обеспокоенности относительно достоверности, потенциальной предвзятости ИИ и этики его применения, влияния на традиционные методы обучения и преподавания. Ведь нейросети могут генерировать не только правдивую, но и ложную информацию, выдуманные факты или цитаты. Этот так называемый бред ИИ настолько заметен, что термин hallucinate («галлюцинировать») даже выбрали словом 2023 года по версии Кембриджского словаря.
Рассматривая вызовы нейросетевого интеллекта для образования и науки, важно увидеть обе стороны медали: как Украина готовит специалистов для развития ИИ и как сам искусственный интеллект меняет образование и науку.
Подготовка специалистов по ИИ
В Украине есть мощный потенциал в этой сфере. Уже 243 компании работают в этой отрасли, а украинские стартапы Grammarly и People.ai стали мировыми лидерами. В 2020 году правительство утвердило Концепцию развития ИИ до 2030 года, которая предусматривает интеграцию этих технологий в образование, экономику и публичное управление. Среди стран Центральной и Восточной Европы мы занимаем второе место по количеству IT-специалистов — их более 307 тысяч. Однако всего 1,6% из них работают в сфере ИИ и машинного обучения. Чтобы заполнить этот пробел, 42 украинских университета уже предлагают 106 специализированных программ по ИИ и 174 программы, где эти технологии являются важным компонентом. Впрочем, до сих пор не хватает преподавателей с соответствующей экспертизой, исследовательской инфраструктуры и сотрудничества с IT-индустрией. Но первые шаги уже сделаны, и позитивные сдвиги в подготовке специалистов по умным системам становятся все заметнее.
Сохранение человеческого в образовании и науке
Искусственный интеллект уверенно шагает по академическим коридорам, как открывая новые возможности, так и создавая серьезные вызовы. С одной стороны, это персонализированное обучение, которое адаптируется под каждого ученика или студента, виртуальные лаборатории и умные чат-боты, готовые ответить на вопрос 24/7. Машинный интеллект может превратить скучные лекции в увлекательные игровые приключения, где сложные концепции становятся понятными и интересными.
Но есть и другая сторона медали. Ученики и студенты все чаще «делегируют» написание работ искусственному интеллекту, а современные инструменты перефразировки делают этот плагиат почти неуловимым. Преподаватели бьют в набат: не утратит ли новое поколение способность мыслить критически, полагаясь на готовые ответы от ИИ? Как найти золотую середину? Эксперты советуют сосредоточиться на заданиях, которые требуют оригинального мышления и личного опыта, развивать эмоциональный интеллект и навыки командной работы. Главное, кажется, не запретить умные алгоритмы, а научиться использовать их этично и эффективно. Вопрос академической добропорядочности в эру ИИ становится ключевым вызовом для образовательного сообщества. Время искать новые подходы к обучению, которые позволят использовать потенциал технологий, не потеряв главного — способности думать самостоятельно.
Резонансный случай произошел недавно в Индии: студент подал иск против университета из-за того, что ему не засчитали экзамен, написанный с помощью искусственного интеллекта. Студент утверждает, что его работа оригинальная, а ИИ он использовал только как инструмент. Ключевой аргумент иска — отсутствие в университете четких правил использования ИИ, а также то, что он является лишь вспомогательным инструментом (так же, как, например Google). Поэтому каждый университет или учебное заведение должны принять собственную политику использования ИИ.
В Украине одним из первых это сделал НТТУ КПИ им. И.Сикорского. Вместо категоричных запретов университеты всего мира делают ставку на сознательное применение технологий: студенты должны создавать оригинальные работы и обязательно отмечать, где именно использовали ИИ — для перевода, анализа данных или создания презентаций. Вместе с тем каждая учебная программа может устанавливать свои правила использования автоматизированного мышления, которые четко прописываются в силабусе. Такой подход обеспечивает прозрачность и позволяет сохранить баланс между инновациями и академической добропорядочностью.
Показательный пример — Университет Северной Каролины, где, кроме политики, создали для студентов понятные путеводители, которые объясняют правила работы с ИИ и предостерегают от возможных рисков: «ИИ может помочь вам думать, но не думать за вас. Не используйте ИИ для выполнения работы за вас, например, не вводите вопросы задания в ChatGPT и не копируйте ответы ИИ как свои. Вы несете стопроцентную ответственность за контент, созданный ИИ. Ответственно и этично взаимодействуйте с ним. Критически оценивайте результаты, созданные ИИ с учетом потенциальных заблуждений. Факты и источники нужно проверять. Вы являетесь пользователем ИИ, и если он делает ошибку, это будет ваша ошибка. Использование ИИ должно быть открытым и документированным».
Но проблема значительно глубже, чем студенческие работы. Ученые также все чаще используют ИИ для разных целей научного исследования: анализа данных, обзора источников и даже создания концепций или идей, либо написания статей или диссертаций. Действительно ученые, например, могут генерировать тексты академических публикаций с помощью ИИ. А поскольку работа рецензентов часто не оплачивается, они тоже могут поддаться соблазну автоматизировать процесс рецензирования. Возникает сюрреалистичная ситуация: искусственный интеллект пишет научные тексты, а потом другой искусственный интеллект их оценивает. Этот замкнутый круг угрожает превратить научную коммуникацию в своеобразный театр абсурда, где машины ведут диалог с машинами, а человеческий интеллект отходит на второй план. Не утратим ли мы при этом саму суть научного поиска — оригинальное мышление, творческий подход, настоящие открытия?
Научные сообщества, журналы и издательства вынуждены быстро адаптироваться: они разрабатывают четкие правила игры с цифровым разумом. Главный принцип — полная прозрачность. Исследователи должны подробно раскрывать, где именно, как и зачем они использовали искусственный интеллект. Вместе с тем рамки четко очерчены: ИИ может помочь отшлифовать язык статьи, но не заменить саму суть научной работы. Формулировка идей, анализ данных, научные выводы — это территория исключительно человеческого интеллекта. И самое главное — ChatGPT никогда не может быть ни автором, ни соавтором научной публикации.
Сейчас уже понятно, что традиционные формы научной работы, формировавшиеся столетиями, оказались под угрозой. Возможно, выходом станет возвращение к старой доброй традиции устной защиты диссертаций? Открытого рецензирования? Открытых методологий и других столпов открытой науки? Ведь в живой дискуссии под открытыми данными и открытым текстом, во время ответов на неожиданные вопросы настоящее понимание цели, задачи исследования, полученных результатов, данных и выводов невозможно подменить сгенерированным текстом или ответами чат-бота. Это может стать новой парадигмой оценивания научных достижений. Решение этой проблемы требует системного подхода.
Может пора пересмотреть саму систему академического оценивания, сделав акцент не на количестве опубликованных текстов или часто каргокультных наукометрических показателях, а на прозрачной и открытой экспертной оценке и справедливых (FAIR) данных, которые можно проверить или воссоздать? А может, стоит создать и новые инструменты верификации авторства и оригинальности мысли, которые будут учитывать реалии эпохи ИИ. Одно понятно наверняка: академическое сообщество не может просто игнорировать эту проблему, надеясь, что она решится сама собой. Ведь на кону не просто будущее отдельных институций, а судьба научного знания как такового. И от того, как мы ответим на эти вызовы сегодня, зависит, сможем ли мы сохранить ценность человеческого интеллекта в эпоху искусственного разума.
Суперинтеллект на горизонте
Профессор Оксфордского университета Ник Бостром в своей резонансной книге «Суперинтеллект» приводит результаты опроса ведущих ученых и экспертов по ИИ о том, когда же у нас появится настоящий суперинтеллект. В среднем их мнения сходятся на том, что это произойдет не раньше 2074 года. И что означает эта дата для человечества? Пятьдесят лет — это много или мало в масштабах технологической эволюции? Нужно вспомнить, что от первых электронно-вычислительных машин до современных нейросетей прошло меньше времени. Темпы развития технологий ускоряются экспоненциально, и то, что вчера казалось научной фантастикой, сегодня уже стало реальностью. Эксперты предупреждают: появление суперинтеллекта может стать точкой невозврата для человеческой цивилизации. Это момент, когда искусственный разум превзойдет человеческий во всех сферах деятельности: от программирования и научных исследований до творчества и принятия стратегических решений. Готовы ли мы к такому будущему? Впрочем, говоря о будущем, важно осознавать реалии настоящего. Сильного искусственного интеллекта, наделенного самосознанием и способного к абстрактному мышлению, сейчас нет. То, что у нас есть сегодня, — это слабый ИИ, способный эффективно выполнять специфические задачи в отдельных отраслях. Но даже этот «слабый» машинный интеллект уже осуществляет революцию в том, как мы создаем и потребляем информацию.
Но вместе с тем возникают и тревожные вопросы. Сможем ли мы контролировать такой интеллект? Именно поэтому эксперты говорят о 2074 годе — нам нужно время для того, чтобы не только создать такой интеллект, но и подготовиться к его появлению. Возможно, важнейший вопрос не в том, когда появится суперинтеллект, а в том, как мы можем адаптироваться к уже имеющимся технологиям, сохраняя при этом уникальность человеческого творчества и критического мышления. Ведь эра искусственного текста — это не просто технологический феномен, а новый этап в эволюции человеческой коммуникации и самовыражения.
2074 год может казаться далеким будущим, но это всего одно поколение. Дети, которые рождаются сегодня, вполне могут стать свидетелями этого исторического момента. И именно от нас зависит, будем ли мы готовы к этой встрече, сможем ли создать этические границы и механизмы контроля, которые обеспечат безопасное развитие суперинтеллекта.