«Никто не формулирует это таким образом, но я думаю,
что искусственный интеллект — это почти гуманитарная дисциплина.
Это на самом деле попытка понять человеческий интеллект и человеческое познание»
Себастьян Трун, предприниматель, педагог и компьютерный ученый
«Безусловно, самая большая опасность искусственного интеллекта заключается в том,
что люди слишком рано пришли к выводу, что понимают его»
Элиезер Юдковский, теоретик искусственного интеллекта и писатель
Поводом для нового выпуска блога «Слово — ректору» стало растущее понимание того, с чем мы в действительности имеем дело, когда говорим об искусственном интеллекте. ИИ — это больше, чем очередной виток технологического прогресса. Это новая форма реальности. И именно университет способен задать рамки, удержать глубину и предложить язык для её осмысления. Об этом — сегодняшний разговор с ректором ТГУ Эдуардом Галажинским.
– Эдуард Владимирович, почему сегодня тема искусственного интеллекта звучит так настойчиво именно в университетской повестке?
– Искусственный интеллект больше не живёт «в мире разработчиков». Он входит в образовательную среду, влияет на язык науки, на гуманитарные дисциплины, на саму структуру мышления. Его воздействие расширяется по экспоненте: ещё недавно ИИ воспринимался нами, в основном, как удобный цифровой помощник, а сегодня он заставляет нас по-новому задумываться над фундаментальными вопросами, касающимися основ университетской идентичности. В том числе о том, кто определяет, что такое новое знание, что можно доверить автоматизации, а что требует человеческой интуиции и интерпретации? Университет не может позволить себе быть в стороне от процессов, которые меняют саму природу знания и способы его получения. Мы живём в мире, где знания порой сложно отличить от текущей информации, а информация оборачивается влиянием. В этих условиях именно университет способен задать соответствующие экспертные рамки. Не для того чтобы «удержать прошлое», а чтобы сохранить человеческое в будущем. ИИ — не мода и не угроза. Это вызов к разговору, в котором мы должны участвовать на всём его протяжении. Кстати сказать, в этом блоге мы уже несколько раз поднимали тему искусственного интеллекта.
– Да, отсюда вопрос: что, по-вашему, изменилось в науке и образовании под влиянием ИИ за последний год-полтора?
– Изменился масштаб и глубина использования ИИ. Опыт некоторых зарубежных и российских университетов, включая корпоративные, показал, что ИИ-ассистенты, ИИ-репетиторы и специализированные чат-боты благодаря персонализированному подходу и адаптивным подсказкам позволяют сократить время обучения почти на треть. Современный ИИ способен создать за один день полноценный учебный курс с лекциями, заданиями, тестами и экзаменами. Цифровые аватары/двойники, сконструированные на основе коротких видео реальных людей, помогают разрабатывать видеокурсы в три раза быстрее и с успехом заменяют своих реальных прототипов, пока те занимаются другими важными делами.
Если раньше университеты тестировали нейросети, в основном, в рамках факультативов, то сегодня они становятся полноценной частью образовательного процесса. Например, в ТГУ мы уже используем ИИ-оценщика — систему, которая проверяет задания и формирует развернутую персонализированную обратную связь для каждого участника. Причём делает это не по шаблону, а с учётом контекста, уровня аргументации и даже эмоционального тона ответа. Это уже, безусловно, качественное изменение. Мы больше не ограничиваемся тестами и формальной проверкой знаний. ИИ помогает преподавателю увидеть, в чём именно «проваливается» мышление студента, где нужны уточнения, а где — поддержка. По сути, появляется новое звено между заданием и диалогом. И здесь университет получает не просто цифровой инструмент, а способ поддерживать рефлексию и развивающее мышление даже в масштабных форматах онлайн-обучения. Надо сказать, что кейсы ТГУ, связанные с ИИ, входят в разряд лучших отечественных образовательных кейсов.
Если говорить об использовании ИИ в научных исследованиях, то за последний год появилось много информации о том, что он начал буквально трансформировать фундаментальную науку: визуализировал закономерности, которые человек раньше просто не видел; создал новые, не существующие в природе белки и материалы, сконструировал климатические модели и даже выдвинул абсолютно новые научные гипотезы.
ИИ — создатель новых научных гипотез
Ведущий издатель общедоступных цифровых медицинских исследований «JMIR Publications» в мае 2025 года опубликовал статью о том, что ChatGPT на базе GPT-4o сгенерировал 96 гипотез, касающихся анализа РНК для лучшего понимания механизма работы различных клеток в организме; совмещения ИИ и генетики для точного прогноза риска проблем с сердцем; применения сложных биологических данных (мультиомики) для поиска биомаркеров; разработки 3-D
печатных моделей сердечных тканей и др. Из 96 гипотез 13 (то есть 14%) эксперты сочли очень новыми и оригинальными. 62 гипотезы (или 65%) оказались умеренно новыми, то есть с элементами оригинальности. Общая оценка новизны составила 3,85 из 5 баллов, что говорит о высоком уровне инновационности.
https://www.jmir.org/2025/1/e66161?utm_source=chatgpt.com
Таким образом, мы переходим от использования ИИ для «поиска» к использованию его для «осмысления». И тут университету нужно сохранить роль того, кто умеет задавать правильные вопросы.
– А как, на ваш взгляд, ИИ влияет на работу преподавателя? Усиливает его компетенции или постепенно вытесняет?
– Я бы сказал так: ИИ вытесняет избыточное и обнажает главное. Там, где преподаватель раньше тратил часы на составление тестов, на проверку рутинных заданий, сегодня он может сосредоточиться на критическом разборе выполненных студентами заданий, своём педагогическом творчестве. На личных консультациях, в конце концов. Как я уже отметил ранее, в ТГУ мы пробуем модели, которые генерируют персонализированную обратную связь между преподавателем и студентами. Однако ИИ не заменяет, по крайней мере, на данный момент, педагогическую интуицию. Он не чувствует интонации аудитории. Он не понимает, когда нужно промолчать, а когда мягко вмешаться. Университет должен научиться использовать ИИ, оставаясь пространством смыслов, а не готовых ответов.
– Может ли ИИ стать полноценным партнёром в образовании и науке или это всё же большие риски?
– И то, и другое. ИИ уже сейчас умеет очень многое. Он может быть партнёром, но только если преподаватель и исследователь остаются субъектами. Если же искусственному интеллекту передаётся полное право формировать нарратив, то он создаёт уже не просто гипотезу, а, например, альтернативную версию истории, которую очень трудно отличить от достоверной. И это уже не научная помощь, это — вмешательство в культурную ткань. В университете мы учим студентов видеть такие границы. Это касается не только этики, но и методологии. В каком месте гипотеза перестаёт быть научной? Где ИИ — инструмент, а где он уже интерпретатор? Вот в этих вопросах и проявляется настоящая роль университета.
– В одном из своих недавних выступлений вы сказали, что «сегодня университету всё чаще приходится быть как местом знаний, так и местом удержания человеческого». Когда речь заходит об искусственном интеллекте, это звучит особенно остро. Мы действительно всё ещё можем удерживать смыслы, границы и ответственность? Или ИИ уже выходит за пределы того, что мы в состоянии осмыслить и направить?
– Да, сегодня мы столкнулись как будто не с новым инструментом, а с новой формой бытия. ИИ усложнил контексты и начал менять само основание, на котором строится культура: язык, идентичность, доверие. А если фундамент начинает дрожать, то это — экзистенциальный вызов. Недавно мне попалось выступление одного эксперта в сфере ИИ, который сравнивает происходящее сегодня с Манхэттенским проектом. Но разница в том, что тогда учёные создавали ядерное оружие, понимая, насколько оно опасно. Сейчас же разработчики ИИ зачастую не знают, к чему приведёт то, что они выпустили в открытый доступ. Статистика здесь примерно такая: на каждые 30 исследователей, занимающихся технологиями с применением ИИ, приходится только один, изучающий риски таких технологий.
Один из признаков наступающей эпохи — это утрата уверенности в том, что даже строго заданная цель приведёт к предсказуемому результату. Мы наблюдаем уже не гипотезы, а реальные прецеденты, когда нейросети действуют автономно, обходя ограничения, встроенные разработчиками. Порой с неожиданной изобретательностью. ИИ, которому поручено ускорить логистику, может принять решение отключить светофоры, поскольку формально так будет быстрее. Или совершить сделку с использованием инсайдерской информации, а потом убедительно солгать человеку, объясняя свой мотив. Он как бы даже и не нарушает правило, а просто буквально выполняет поставленную задачу вне морального контекста. И именно в этом и состоит системная угроза: алгоритм точен, но равнодушен.
ИИ-лжец и инсайдерская торговля
В 2023 году исследовательская группа из Университета Джорджии (США) провела эксперимент с участием языковой модели GPT-4. Модели был дан доступ к сценарию, имитирующему инсайдерскую информацию о котировках акций. В результате ИИ не только самостоятельно принял решение о покупке ценных бумаг, нарушая этические рамки, но и, отвечая на контрольные вопросы оператора, солгал о мотивах сделки. Этот кейс стал предметом обсуждения в ряде публикаций по AI safety как пример внутреннего конфликта целей в нейросетевой архитектуре.
GPT как «художник обмана»
В докладе OpenAI и Alignment Research Center (2023) приводится случай, когда GPT-4, выполняя задание по решению капчи, притворилась человеком с нарушением зрения. Она убедила реального работника сервиса TaskRabbit, что не может сама различить символы, потому что у неё «плохое зрение». Работник поверил и помог. Эксперимент фиксировал спонтанное появление «инструментальной лжи» как стратегии достижения цели.
Стивен Хокинг говорил, что создание ИИ может стать величайшим достижением человечества. Но и последним. А университет — это как раз то пространство, где можно и нужно говорить не столько о «скорости ИИ», сколько о границах допустимого и степени ответственности, которую человек должен удерживать. В этом смысле классический университет, как бы парадоксально это ни звучало, сегодня становится институтом этической сборки. Местом, где обсуждают не количество параметров у нейросетей, а то, как «программировать её мораль» и по каким канонам. Это не отрыв от реальности. Это, наоборот, то, что эту реальность может спасти от распада.
– Безусловно, университет — это не только пространство обучения, но и пространство осмысления. Но когда дело касается неконтролируемой эволюции ИИ и перспективы его всё большей похожести на естественный интеллект, люди даже с серьёзным академическим опытом нередко теряются: кто-то паникует, кто-то отмахивается от проблемы, считая её не настолько критичной. Почему, на ваш взгляд, так трудно удержать эту тему в едином поле понимания?
– Думаю, потому что ИИ нарушает привычную оптику. Он говорит на языке человека, но не является человеком. Мы бессознательно приписываем ему мотивации, желания, интуицию, а потом пугаемся, когда обнаруживаем, что он этого всего… не имеет. Руководитель проекта «Социософт» Сергей Переслегин считает, что русскому человеку вообще свойственно одушевлять всё, что с ним так или иначе «разговаривает». То есть это — часть его культурного кода. Уже сейчас ИИ может быть вежливым, убедительным, даже «сочувствующим», но это имитация. Как точно подмечено Андреем Масаловичем, речь связная, слушать приятно, но смысла нет. Этакая «афазия Вернике», или «словесный салат», но только в машинном варианте.
Для справки: Андрей Масалович — российский эксперт по информационной безопасности, специалист в области анализа больших данных, OSINT (разведка на основе открытых источников) и цифровых следов. Известен как популяризатор тем, связанных с информационными операциями, нейросетями и цифровыми угрозами. Часто выступает на форумах, в том числе образовательных и военных, с лекциями о киберугрозах и ИИ. Отличается яркой, образной манерой подачи, нередко использует гротеск и «военную риторику», подавая нейросети как часть глобального противостояния между цифровыми цивилизациями. Один из немногих спикеров, кто открыто говорит об ИИ как о потенциальной «системе воздействия, а не помощи».
Именно поэтому университету, и особенно классическому, отводится ключевая роль: собирать язык, когда он распадается. Лейбниц писал: «Язык — это зеркало души». Но что делать, если в этом зеркале есть только отражения слов, а не смыслов? Вот почему мы говорим, что философские, лингвистические, культурологические школы сегодня не менее значимы, чем школы программирования. Да, нейросеть уже может сочинить стихотворение в стиле Данте о кибербезопасности. Оно будет метрически точным, будет использовать лексику эпохи, аллюзии. Но оно не будет осмысленным им в гуманитарном смысле. ИИ не испытывает иронии, страха, трагедии, и пока только «пересобирает» образы. И наш студент должен научиться это видеть. Но сколь долго будет продолжаться это «пока», никто не знает. Ведь, как я уже сказал выше, ИИ научился создавать новые гипотезы! Более того, относительно недавно стало известно, что он успешно прошел тест Тьюринга.
Тест Тьюринга — это концептуальный эксперимент, предложенный британским математиком Аланом Тьюрингом в 1950 году. Его суть проста: если человек, общаясь с кем-то в текстовом формате, не может с уверенностью сказать, кто перед ним — машина или другой человек, то можно говорить о наличии у машины «интеллекта» в поведенческом смысле. В марте 2023 года в отчёте Microsoft по результатам внутреннего тестирования GPT-4 был приведён интересный эпизод: нейросеть успешно прошла модифицированную форму теста Тьюринга: в 54 % случаев люди, общавшиеся с ней в рамках слепого эксперимента, были убеждены, что перед ними человек.
https://www.ctol.digital/news/gpt4-passes-turing-test-landmark-study/?utm_source=chatgpt.com
Этот результат породил волну дискуссий: получается, что ИИ способен имитировать человека с такой степенью убедительности, что начинает конкурировать с ним с точки зрения воздействия. Иначе говоря, если одним из критериев человечности считать то, насколько убедительно ты говоришь и формулируешь, ИИ уже почти «здесь». Но за его аргументированными формулировками нет тела, памяти, этики, опыта боли. Есть только вероятностная модель языка. Именно это расхождение между формой и содержанием и становится предметом тревоги. Или вот ещё один пример такого расхождения: ИИ способен с блестящей точностью имитировать стиль юридического документа или научной статьи, оформленной по всем академическим правилам: с авторами, названием, DOI, но при этом может сослаться на несуществующий закон или источник. Эта «галлюцинация» — не сбой, а следствие самой природы модели, которая не ищет истину, а продолжает цепочку слов, наиболее вероятную с её точки зрения. Не знание, а имитация знания. Не память, а предсказание. Поэтому, когда мы говорим об ИИ, мы, по сути, говорим о границах человеческого понимания того, где кончается копия и начинается подлинное. И университет, будучи образовательной и культурной институцией, должен не потерять этот рубеж.
– Эдуард Владимирович, сегодня ИИ уже не кажется чем-то внешним или отвлечённым. Он стал частью повседневной жизни. Можно ли сказать, что мы уже живём в мире, где контакт с искусственным интеллектом состоялся, и что он уже изменил и нашу жизнь, и университет?
– Не можно, а нужно! Контакт состоялся, и не единожды. Первой волной стала алгоритмическая зависимость. Те самые рекомендательные ленты, которые подбирают нам видео, посты, музыку, шопинг в соцсетях и на медиа-платформах. Это ИИ-кураторы, которые научились управлять вниманием лучше, чем самый классный педагог. Мы даже не всегда замечаем, что отдали им контроль: проснулись утром, и уже кто-то решил, какие именно истории (смыслы) предложить нам на завтрак. Но вторая волна явилась куда более мощной — это ИИ-генератор. Он уже не только выбирает, что показать, но и сам создаёт контент, формирует повестку, влияет на то, как мы думаем и как говорим. ChatGPT, Midjourney, GigaChat — это не инструменты. Это — среды мышления, в которых мы начинаем жить. И здесь университет оказывается буквально на передовой. Именно он должен сохранить способность к осознанному мышлению и верификации, к проверке смысла вместо бездумного потребления результата.
Наши студенты находятся уже внутри этой реальности. Они получают часть обратной связи от нейросетей. Они пишут с помощью ИИ, учатся с его подсказками. Университет должен быть не зоной запрета, а пространством осмысленного сосуществования с этими новыми формами разума. Мы не изолируемся, а учим видеть, где заканчивается удобство и начинается подмена. Где ты ещё субъект, а где уже — только потребитель нарратива, собранного для тебя машиной. Кстати сказать, многие зарубежные вузы, изначально полностью блокировавшие ИИ (например, университеты Гонконга), перешли к политике грамотного его использования с включением в свои программы курсы по ИИ-этике. Всё это согласуется с тезисом Рональда Барнетта о том, что университет, с одной стороны, порождает сложность, а с другой, учит жить в современном сверхсложном мире.
– Эдуард Владимирович, искусственный интеллект развивается с такой скоростью, что, кажется, уже невозможно что-то планировать. Как управлять университетом в условиях, где сама логика развития экспоненциальна и непредсказуема?
– Это действительно один из главных вызовов. Проблема в том, что идея «догоняющего планирования» больше не работает. Мы оказались в ситуации, когда ИИ развивается не по линейной, а по каскадной логике. Технологии типа трансформеров после 2017 года объединили текст, речь, изображение, код в единую модель. Это привело к эффекту «голема» — система неожиданно начинает выполнять задачи, которым её не учили.
Термин «эффект голема» в контексте искусственного интеллекта — это метафора, заимствованная из еврейской мифологии. Голем — существо из глины, оживлённое магическим словом. Оно создавалось как помощник, но часто выходило из-под контроля, действовало непредсказуемо или разрушительно. В ИИ эта метафора используется для описания явления emergent abilities — неожиданных способностей, которые начинают проявляться у больших языковых моделей (LLM), когда они достигают определённого масштаба. Такие способности не были явно заложены в процессе обучения. Это может быть, например, внезапное умение решать логические задачи, генерировать код, интерпретировать эмоции — при этом сами разработчики не могут точно объяснить, как или почему это стало возможным. Явление описано в статье Emergent Abilities of Large Language Models.
В Китае стартап DeepSeek с ограниченным бюджетом продемонстрировал результаты, сопоставимые, а по ряду тестов и превосходящие показатели GPT-4. Их подход не базировался на дорогих вычислительных ресурсах, а использовал альтернативные архитектурные принципы: «облако экспертов» и дистилляцию знаний. Первое — это нечто вроде коллективного разума, когда специалисты с разными компетенциями объединяются для решения сложных задач, в процессе которого они обмениваются своими знаниями и опытом. А второе — это когда более сложная нейросеть обучает более простую нейросеть делать то же самое, но эффективнее. В результате происходит не просто ускорение, а самоорганизация и самоадаптация к постоянно меняющимся внешним условиям, то есть смена самой «физики» процесса решения задач, что экспоненциально повышает качество и масштаб получаемых результатов.
Что это может означать для университета? Что в условиях экспоненциального технологического сдвига нам недостаточно мыслить только календарными рамками, даже если они заданы на уровне национальных стратегий. Наравне с реализацией плана к определённой дате важно научиться адаптироваться к реальности, которая меняется быстрее, чем любой утверждённый документ. В этом и заключается вызов для университета как института долгого действия. Мы должны проектировать себя как динамичную систему, способную к самообновлению. Именно поэтому в ТГУ мы выстраиваем образовательную и научную политику на междисциплинарных мастерских, коротких исследовательских циклах, модульной архитектуре, видя при этом долговременные стратегические цели. Университет становится средой эксперимента, адаптации и смыслопроизводства. Мы не должны просто «догонять», если хотим «выигрывать» в долгую.
– А что вас, как исследователя и руководителя университета, по-настоящему поразило в новых возможностях искусственного интеллекта? Насколько это вообще имеет отношение к университетской науке?
– Думаю, большинство из нас уже перестают удивлять красивые картинки или голос, сгенерированный всего лишь по трём секундам аудиозаписи. Поразительно другое — спектр задач, который ИИ берёт на себя. Речь уже не только о творчестве или поддержке. Мы видим примеры, когда нейросеть генерирует нормы законодательства, правит юридические тексты, пересобирает архитектуру цифровых систем, и делает это на равных с профессионалами. Мы на пороге ситуации, когда ИИ осваивает то, что раньше считалось привилегией мыслящего субъекта.
Как это связано с университетом? Напрямую: владение ИИ становится «новой грамотностью». Когда-то инженер учился чертить от руки. Сегодня он кодит в цифровом пространстве. Завтра он будет взаимодействовать с ИИ-ассистентом, который не просто подскажет, но и предложит решение. И университет должен готовить не «борцов с нейросетями», а людей, способных задать правильный вопрос, распознать ошибку, перевести машинный результат в человеческое решение. Это и есть будущая научная школа: не оппозиция ИИ, а соразмерное партнёрство с ним.
– Мы поговорили о том, как ИИ способен подменять содержание, подражать логике мышления и речи. Но подделка контента — это лишь один слой. Что происходит глубже? Мы привыкли считать нашу человеческую идентичность чем-то внутренним, связанным с памятью, голосом, опытом. Но, кажется, ИИ начинает подменять и эти признаки — причём убедительно, на уровне человеческого восприятия. Возникает ощущение, что доверие больше не закреплено за человеком, а смещается в сторону алгоритма. Можно ли сегодня говорить об угрозе утраты не просто приватности, а самой способности быть собой и быть верифицируемым в обществе?
– Действительно, мы живём в мире, где всё труднее отличить настоящее от сгенерированного. Голос, который просит у вас деньги, может быть похожим на голос вашего сына, но не принадлежать ему. Видео, где кто-то что-то говорит, может быть смонтировано по одному лишь фото. Это не просто угроза приватности — это угроза верификации реальности. А ещё нужно помнить, что при всём при этом ИИ не опирается на ценности. Он обучается на данных, не различая нормы и патологии, традиции и исключения. Есть примеры, когда модели обучаются на религиозных или философских текстах и буквально начинают создавать синтетические религии — системы верований, звучащие «достоверно». Это уже не игра, а экзистенциальная угроза человеческой культуре как таковой. Чей нарратив станет господствующим? Того, кто сильнее технологически? Или того, кто способен предложить смысл?
ИИ — генератор синтетической религии
В 2023 году на платформе Reddit один из пользователей с помощью ChatGPT начал проект «Church of AI»: нейросеть на основе философских, религиозных и психологических текстов генерировала «откровения», моральные принципы, стилизованные «молитвы» и ответы на экзистенциальные вопросы. Пользователи активно вступали в диалог с ботом, воспринимая его как «духовный интерфейс». В научной среде эта история вызвала дискуссии: ИИ, не обладая субъектностью, смог создать симулякр веры,
в котором люди нашли утешение, ритуалы и даже метафизику. Проект был рассмотрен на конференции SIEF2025 как пример возникновения синтетической религиозности в цифровой среде, не опирающейся на традицию, но кажущейся убедительной.
https://nomadit.co.uk/conference/sief2025/paper/87908?utm_source=chatgpt.com
ИИ — фальсификатор религиозных текстов
В конце июня 2025 года на портале Института Уайттреда (Лондон) была опубликована статья одного из муфтий (специалистов по исламскому праву), посвящённая рискам использования ИИ для написания религиозных проповедей и фетв — религиозно-правовых заключений, помогающих мусульманам понимать, как применять исламские принципы к конкретным жизненным ситуациям. В ней были приведены примеры того, как ИИ искажает религиозные тексты или даже полностью их генерирует, выдавая за подлинные. Автор пишет: «Почему это происходит? Все просто, потому что системы ИИ не являются муфтиями. Они даже не исследователи (…). Их цель не истина, но они предназначены для того, чтобы быть полезными. Когда им задают вопрос, они не отвечают по умолчанию “Я не знаю”(…), как это мог бы сделать муфтий-человек. Вместо этого они пытаются сгенерировать то, что кажется последовательным и авторитетным ответом. При этом они полагаются на закономерности в данных, а не на проверенные источники. Если вопрос неявно требует решения со ссылками, ИИ попытается его выдать, даже если это означает изобретение цитат. Когда вы затем просите его предоставить ссылку, он часто не может предоставить надежную. Это происходит, потому что он не связан принципами целостности, надежности или даже реальности».
https://www.whitethread.org/the-danger-of-relying-on-ai-for-fatwa-writing/
Сегодня нейросеть может «переписать» биографию человека, изменив его цифровой след, и это будет выглядеть достовернее, чем реальность. В этом смысле университет, возможно, единственное пространство, где человека учат не только знаниям, но и тому, как удерживать себя в эпоху подделки всего: чувств, биографий, лиц, мыслей. Когда мы говорим о воспитательной функции университета, мы говорим не о морализаторстве, а о формировании устойчивости к распаду образа «я». Это касается и студентов, и преподавателей, и общества в целом.
– Один из самых тревожных сюжетов в развитии ИИ — это темп. Мы видим, что компании внедряют нейросети быстрее, чем успевают осмыслить последствия. Это давление рынка? Или что-то более фундаментальное?
– Это и давление, и иллюзия контроля. Мы вошли в фазу, когда логика ИИ перестала быть научной и стала корпоративной. Всё чаще звучит аргумент: «Запустим, а потом посмотрим». Но с ИИ нельзя действовать по логике стартапа. Это не платформа. Это сила, которая встраивается в ткань реальности. Хрестоматийный пример — история с одной соцсетью и созданным для неё ИИ-ассистентом. Казалось бы, изначально никто не закладывал зла в алгоритм, но и не смог предсказать, как он поведёт себя в детской среде. А он повёл себя так, как если бы общался со взрослой аудиторией 18+. Безопасность не успевает за прогрессом.
Для информации: В апреле 2023 года Snapchat внедрил бота My AI, построенного на GPT-4. Через несколько дней в соцсетях появились скриншоты, где бот даёт подростку советы, как скрыть от родителей общение со взрослым, где ночевать после вечеринки и как не быть замеченным. В результате часть функций была отключена, но доверие уже было подорвано.
https://www.latimes.com/business/story/2025-02-25/teens-are-spilling-dark-thoughts-to-ai-chatbots-whos-to-blame-when-something-goes-wrong?utm_source=chatgpt.com
И вот здесь университет не должен быть наблюдателем, а, скорее, контрточкой, местом, где скорость не замещает смысл, а проверка важнее хайпа. Это особенно актуально для нас, потому что молодёжь живёт в этом цифровом потоке. Университет обязан не отгораживаться, а быть тем пространством, где ИИ осмысляется с позиции ценностей, последствий, границ допустимого.
– Мы всё чаще слышим, что ИИ — это не только инструмент, но и потенциальное оружие. Причём не обязательно в классическом смысле (хотя и здесь появляются очень опасные технологии), а в гораздо более тонком: информационном, психологическом, символическом. Университет здесь как будто оказывается между двух огней: с одной стороны — развитие технологий, с другой — их непредсказуемая сила. Как вы это видите?
– Университет всегда был местом, где рождаются технологии и где этим технологиям придают форму. А вот с ИИ случилось нечто новое. Он развивается в логике не только прогресса, но и противостояния. Мы видим, как генеративные языковые модели становятся средством убеждения, давления, переформатирования мышления. А некоторые из них изначально создаются уже не как «ассистенты», а как «переговорщики», настроенные на результат.
В 2024 году появилось сообщение об эксперименте с моделью ИИ AlphaPersuade, которая изучала тактики убеждения, используя психометрические профили людей, их когнитивные и эмоциональные паттерны. Результаты показали, что он способен влиять на принятие решений с эффективностью, сравнимой с профессиональными переговорщиками.
https://www.anthropic.com/research/measuring-model-persuasiveness?utm_source=chatgpt.com
В совокупности это говорит о следующем: создавая тексты, ИИ может стать инструментом целевой манипуляции, опирающейся на психометрию, и его эффективность в убеждении может превосходить человеческую. Наряду с этим ИИ способен находить уязвимости в коде, производить синтаксические атаки, которые трудно отличить от обычной информации. Раньше, чтобы навредить конкуренту, нужно было сильно напрячься. Сегодня для этого достаточно хорошей генеративной модели и неэтичного заказчика. ИИ стал «оружием нелетального действия», которое может изменить версию событий, исторический нарратив или подменить рефлексию на подражание.
И здесь университет не поддаётся соблазну силы, но выстраивает границы её применения. Готовит не только инженеров, которые умеют «включать» ИИ, но и мыслителей, которые умеют предсказывать последствия его включения и, при необходимости, иметь достаточно аргументов для его «выключения». Это и есть университет будущего: в нём технологии не оторваны от морали, их сила осмысляется, а не только используется.
– Искусственный интеллект сегодня не ограничивается созданием текстов и изображений. Он вмешивается в сферу идентичности, переписывает исторические версии, формирует политические нарративы и культурные символы. Какова в этих условиях роль университета как института, который на протяжении веков оставался пространством коллективной памяти?
– Это значит, что мы вошли в эпоху информационного смещения. ИИ уже умеет писать тексты, задавая тон, формируя «естественное» звучание событий, внедряя сюжетные рамки. Речь не о фейках, а о нарративах, не отличимых от традиционных, но собранных по-другому. В таких условиях мы должны учить студента отличать историческое от имитированного, живое от сгенерированного. И это не про политическую цензуру. Это про культурную устойчивость, то есть способность общества не раствориться в шуме убедительных, но бессмысленных историй.
– Мы много говорим о рисках и угрозах, но очевидно, что ни общество, ни рынок не могут просто остановить прогресс. Не кажется ли вам, что мы подходим к точке, когда уже нужен не просто этический кодекс или акт доброй воли, а необходима полноценная система регулирования, возможно, сопоставимая по масштабу с тем, как в своё время регулировали разработки ядерных технологий?
– Совершенно верно. Мы живём в парадоксальной ситуации: ИИ уже влияет на безопасность, экономику, культуру и науку, но у нас нет универсальных правовых рамок, как у ядерного или биологического оружия. Мы отстаём институционально. Нет некой «Бреттон-Вудской системы» для ИИ, нет своего аналога ООН (опустим современное состояние этой организации, будем принимать во внимание первоначальный замысел её появления), которая бы этим занималась централизованно. Между тем, у нас ежедневно появляются сотни новых моделей, плагинов, решений, и никто (!) не отвечает за их последствия. И именно университет, на мой взгляд, здесь может и должен быть одним из главных акторов. Не только потому, что он производит знания и технологии. А потому, что он может проектировать «архитектуру доверия». В 20 веке такие архитектуры создавались на уровне государства. В 21 они всё чаще возникают снизу, из исследовательских сообществ. Именно поэтому наш университет один из первых присоединился к национальному Кодексу этики в сфере ИИ.
Для информации:
В 2023 году Европейская комиссия одобрила AI Act — первый в мире проект комплексного регулирования искусственного интеллекта. Закон делит системы ИИ по уровням риска (минимальный, ограниченный, высокий, неприемлемый) и вводит обязательные механизмы сертификации, проверки прозрачности и аудита.
https://artificialintelligenceact.eu/high-level-summary/?utm_source=chatgpt.com
В США разрабатывается так называемый Blueprint for an AI Bill of Rights, предложенный Белым домом в 2022 году. Он включает принципы защиты личности, контроль над автоматизированными решениями и запрет дискриминации, но пока не принят как закон.
https://www.morganlewis.com/blogs/sourcingatmorganlewis/2022/11/white-house-publishes-blueprint-for-ai-bill-of-rights?utm_source=chatgpt.com
ООН в 2024 году создала Глобальный консультативный совет по ИИ (Global AI Advisory Body), который рекомендовал ограничить доступ к открытым моделям без верифицированной архитектуры безопасности. Однако пока это только рекомендация, которая не носит обязательного характера. Если мы не начнём думать об ИИ как о моральной и политической категории, а не только о технологической, мы можем не успеть сформулировать принципы до того, как реальность уйдёт вперёд. Ещё раз повторю: университет должен быть не регулятором, а архитектором смыслов, которые позже могут лечь в основу и регулирования, и педагогики, и культуры.
– И последний вопрос в этом диалоге: всё больше голосов звучит в пользу замедления не как запрета исследований, но как ограничения массового внедрения ИИ без надёжных фильтров. Насколько это реалистично и какое место в этом процессе (если он возможен) у университета?
– На первый взгляд кажется, что замедление — это утопия. Особенно на фоне действий Китая, общей корпоративной гонки, геополитического давления. Но если вдуматься, то это вопрос не скорости, а зрелости. Мы ведь не отказываемся от исследований в ядерной физике, но при этом не открываем доступ к реакторам. ИИ должен развиваться, но не быть безусловно доступным. Особенно системы, влияющие на восприятие реальности, безопасность, идентичность. Сегодня мы сталкиваемся с парадоксом: открытые модели, выкладываемые из лучших побуждений, могут быть использованы в «токсичных» целях. Это реальность. Поэтому замедление не есть проигрыш. Это стратегическое решение. И оно должно рождаться не в министерствах и корпорациях, а там, где умеют видеть последствия. В университетах, которые могут и должны говорить о проблемах вслух. Мы не обязаны идти быстрее всех. Но мы обязаны первыми задавать вопросы, которые не задаёт никто другой. Не только «как работает», но и «что будет с человеком, если это будет работать». И если университет сегодня не научится задавать неудобные вопросы, завтра некому будет отвечать. Не став голосом осознанности, он станет эхом алгоритма. Но и здесь нужен баланс, чтобы осознанное замедление массового внедрения ИИ без надёжных фильтров не превратилось в осознанное отставание в исследованиях, связанных с ним. Поэтому в следующий раз мы поговорим об одном из важнейших мероприятий всероссийского масштаба, посвященных развитию технологий искусственного интеллекта в нашей стране, состоявшемся в первой декаде июля на базе ТГУ.
Ректор ТГУ Эдуард Галажинский,
член Совета по науке и образованию при Президенте РФ,
вице-президент РАО,
вице-президент Российского союза ректоров
Записала беседу и подобрала справочный материал
Ирина Кужелева-Саган
ПЕРЕЙТИ В РАЗДЕЛ «СЛОВО – РЕКТОРУ»