Искусственный интеллект: «наше всё» или «пойманные нейросетью»?

Искусственный интеллект: «наше всё» или «пойманные нейросетью»?

В фокусе выпуска блога – проблематика, связанная с продолжающейся цифровизацией высшего образования и общества в целом. Своим мнением по поводу значения этого сложнейшего процесса и неоднозначных эффектов, вызываемых им, поделился ректор ТГУ Эдуард Владимирович Галажинский.

— Эдуард Владимирович, мы уже не в первый раз будем говорить с вами о цифровизации, искусственном интеллекте (ИИ) и близких к ним вещах. Тема эта, без преувеличения, бесконечная, поскольку цифровизация и приход в нашу жизнь искусственного интеллекта ставят перед обществом и сферой высшего образования всё новые и новые проблемы, далеко не все из которых можно было предвидеть заранее. И теперь нужно со всем этим разбираться.

— Прежде чем говорить о проблемах, обозначившихся на современном этапе цифровизации и развития искусственного интеллекта, я хотел бы сказать следующее. Как бы мы ни относились к этим процессам, отменить их или повернуть вспять невозможно. Как невозможно и переоценить их значение для всего социума и каждого из нас. И теперь уже совершенно очевидно, что именно эти процессы определяют форматы функционирования всех сфер сегодняшнего и завтрашнего общества, включая государственное управление, экономику, здравоохранение, образование, добывающую и перерабатывающую промышленность, сельское хозяйство, космос, оборону и безопасность в целом. Мы просто не можем себе позволить не заниматься серьёзно цифровизацией и искусственным интеллектом, если не хотим стать заложниками чужих открытий и технологий в этой области, а также всех возможных последствий от их применения. Этот вызов, обусловленный необходимостью создавать новации, связанные с искусственным интеллектом, является для нас не только технологическим, но геополитическим и экзистенциальным. Точно так же, как это было с ядерными технологиями в середине прошлого века. Окончательно утвердиться в этом меня побудило выступление нашего Президента Владимира Владимировича Путина на Международной конференции по искусственному интеллекту и машинному обучению, организованной Сбером и состоявшейся в Москве в двадцатых числах ноября. Президент отметил сквозной, универсальный и революционный характер такой технологии, как искусственный интеллект, ставшей «новой страницей в развитии человечества».

2 — копия_новый размер.png

Это выступление интересно и важно ещё и тем, что очень многие его моменты непосредственно связаны с наукой и образованием. Например, было сказано, что уже в самом ближайшем будущем будет подписан указ Президента РФ и утверждена новая редакция Национальной стратегии развития искусственного интеллекта, в которой будет внесён ряд существенных изменений, а также конкретизированы цели и задачи, направленные на расширение фундаментальных и прикладных исследований в области генеративного искусственного интеллекта и больших языковых моделей. Правительство РФ готово направить дополнительные средства на такого рода исследования при условии их софинансирования со стороны отечественных ведущих компаний и создания ими прорывных продуктов на основе полученных учёными результатов. Президент подчеркнул, что российские вузы с высоким рейтингом должны обеспечить подготовку кадров и ученых-разработчиков в сфере искусственного интеллекта, расширив свои программы магистратуры и аспирантуры в данной области и увеличив (дополнительно за счёт федерального бюджета) приём студентов на соответствующие базовые программы уже с 1 сентября 2024 года. Отдельной задачей, которую Владимир Владимирович поставил перед Правительством РФ и Альянсом в сфере ИИ, является формирование специальной образовательной программы по теории, практике разработки и применения искусственного интеллекта с акцентом на языковые генеративные модели. Её слушателями, причём уже с 1 квартала 2024 года, должны стать руководители крупнейших компаний; федеральных и региональных органов власти; вузов и учебных заведений среднего профессионального образования. Одновременно с этим должен быть проведён внимательный анализ того, в каких отраслях уже в ближайшие пять лет изменятся требования к существующим специальностям и потребуются новые профессии и компетенции. На основе этого перед системой образования должны быть поставлены конкретные задачи по изменению программы профориентации и подготовки специалистов. Всё это в той или иной степени касается и нас.

– Как известно, наш Томский государственный университет уже давно осознал приоритетность задач, связанных с цифровизацией, большими данными и искусственным интеллектом. Что уже сделано и делается в рамках этих фронтирных направлений?

– Действительно, «цифровизация», «большие данные» и «искусственный интеллект» являются ключевыми словами нашего внутриуниверситетского дискурса уже много лет. В последний год к ним добавилось ещё и словосочетание «языковые генеративные модели». Все они звучат во время самых разных деловых встреч, мероприятий, дискуссий, обсуждений новых образовательных программ, партнерских проектов, и, конечно же, проведения соответствующих исследований и разработки инновационных продуктов. То, что сделано за эти годы, невозможно упомянуть даже мельком в рамках одного выпуска блога. Если мы обратимся к новостным страницам сайта ТГУ, то увидим, что только за один месяц у нас, в классическом (!) университете, состоялось столько всего, сколько, наверное, не всегда бывает и в специализированных вузах, ориентированных на обозначенные фронтирные направления.

Информация о том, какие мероприятия, связанные с ИИ, произошли в ТГУ с 30 октября по 30 ноября 2023 г.:

– ТГУ, Академия InfoWatch и компания «Крибрум» в лице их первых руководителей Натальи Касперской и Игоря Ашманова подписали соглашение о партнерстве на основе интеграции образовательного, научно-исследовательского и инновационного технологического потенциала, предполагающее: запуск совместных образовательных программ, в том числе и магистерских, по кибербезопасности, цифровой гигиене и прикладному анализу данных; мониторинг социального развития Томского региона и выявление деструктивного поведения среди молодёжи; популяризацию суверенных технологий в области искусственного интеллекта; а также открытие филиала InfoWatch и «Крибрум» в Томске, в котором будут работать выпускники Большого университета. Обсуждалось создание совместного НОЦ, который, с одной стороны, на базе технологий «Крибрума» будет усиливать исследовательские компетенции в сфере работы с большими данными; с другой, разрабатывать образовательные программы, контент и микроконтент к ним и совместно их продвигать. Возможна и организация совместной магистратуры в Индонезии.

– В бизнес-инкубаторе ТГУ открылось новое образовательное пространство «Территория искусственного интеллекта», в котором студенты и магистранты Передовой инженерной школы «Агробиотек», обучающиеся по программе «Компьютерная инженерия: искусственный интеллект и робототехника», будут строить робототехнические системы для точного земледелия. Здесь они научатся распознавать болезни растений по цифровым изображениям, повышать урожайность, управлять логистикой и навигацией беспилотников на полностью роботизированных фермах.

– Факультет иностранных языков ТГУ провёл XXXIII Международную научную конференцию «Язык и культура», на которой, среди прочего, обсуждались вопросы иноязычного образования и переводческой деятельности в условиях технологических прорывов и достижений в области искусственного интеллекта.

– В Сибирском (Томском) центре изучения искусственного интеллекта на базе ТГУ состоялась деловая встреча по цифровой трансформации региона с участием руководства университета, Сибирского банка ПАО Сбербанк, Томского отделения Сбербанка и Центра развития технологий AI во благо общества. Представители Сбера выразили готовность поддерживать конкретные инициативы Томского государственного университета и содействовать развитию инновационного потенциала Томской области.

– ТГУ вместе с соорганизаторами – ассоциацией «Университетский консорциум исследователей больших данных» и Президентской академией РАНХиГС провёл пятый форум «Открытые данные», традиционно выступающий площадкой для экспертов в области big data. Его участниками стали представители 70 вузов из пяти стран, руководители 20 ведущих EdTech и IT-компаний и представители исполнительной власти. Идея университетского консорциума больших данных, объединившего исследователей big data, социологов, лингвистов, психологов, людей технических специальностей, родилась в ТГУ в 2016 г.

– Состоялось выступление ректора ТГУ Э.В. Галажинского на форуме инновационных финансовых технологий FINOPOLIS 2023 в Москве. На пленарной дискуссии «Образование. Новые компетенции. Что делать?» он рассказал о реализации в ТГУ пилотного проекта по совершенствованию системы высшего образования в России и высказался о том, как сократить дистанцию между образованием и работодателями из финансовой и других высокотехнологичных отраслей. Участникам форума стали крупнейшие финансовые компании и лидеры IT-рынка, темы дискуссий касались тенденций и возможностей применения современных цифровых технологий в финансовом секторе. Участники обсудили, как государство и частное партнерство могут помочь образованию, какие новые компетенции могут получить выпускники вузов, как образованию поможет искусственный интеллект и как будет происходить сближение вузов и работодателей.

– Прошла встреча ректора ТГУ Э.В. Галажинского с ректором Санкт-Петербургской духовной академии , председателем Синодальной комиссии по биоэтике Русской Православной Церкви епископом Петергофским Силуаном, а также представителями томского духовенства. Обсуждался широкий круг вопросов, представляющих взаимный интерес. Была отмечена важность сотрудничества богословов и научного сообщества по актуальным вопросам биоэтики, нанотехнологий и искусственного интеллекта.

– Созданный на базе ТГУ в партнерстве со Сбером Сибирский (Томский) центр изучения искусственного интеллекта и цифровых технологий получил награду за вклад в развитие этического регулирования в сфере искусственного интеллекта (ИИ). Вручение награды состоялось в Москве в рамках Международного форума этики в сфере искусственного интеллекта «Поколение GPT. Красные линИИ». Сибирский центр изучения ИИ отмечен как один из первых в стране центров изучения вопросов этики искусственного интеллекта.

– ТГУ стал соорганизатором IV онлайн-конференции Яндекса Yet another Conference on Education-2023 (YAC/e 2023) про образование и применение инновационных IT-технологий в сфере образования. Эксперты встретились на площадке ТГУ, где прошел блок «Академическая перемена». Участниками дискуссий стали и представители Томского госуниверситета – как одного из ведущих центров развития методов дистанционного обучения, искусственного интеллекта и анализа больших данных в образовании. Среди обсуждаемых ими тем стала следующая: «Искусственный интеллект в университете: отключить нельзя использовать»

– В ТГУ прошёл Международный конгресс «Язык, культура и технологические транзиты: новые грани человеческого», ставший первой в стране дискуссионной площадкой, где академическое сообщество и представители индустрий обсуждали темы, связанные с существованием человека в гибридной реальности. Основными вопросами дискуссий были ценностные ориентации, антроподанные, риски, границы и этико-правовые аспекты влияния технологий на человека. В конгрессе приняли участие ведущие исследователи из России и Азии – филологи, философы, лингвисты, психологи, юристы, а также специалисты в области IT и образовательных технологий, искусственного интеллекта, когнитивных и нейронаук.

– В журнале «Journal of Quantitative Spectroscopy and Radiative Transfer» опубликована статья ученых ТГУ, в которой описан новый подход к диагностике социально значимых заболеваний – инфекционных, диабета, инфаркта, онкологии с использованием технологий лазерной спектроскопии и глубокой нейросети.

– Вышел новый выпуск «Научного дайджеста ТГУ» – «Вселенная ChatGPT: научный взгляд», подготовленный лабораторией исследования качества жизни и кафедрой социальных коммуникаций ФП ТГУ, знакомящий читателей с обзором мировых новостей и ресурсов о технологиях в области искусственного интеллекта.


Пройдёт пара лет, и искусственный интеллект станет органичным элементом буквально всех университетских процессов: управленческо-административных, учебно-образовательных, научно-исследовательских, просветительских, социокультурных, бытовых. Но, как известно, люди быстро привыкают ко всему, что делает их жизнь и профессиональную деятельность более комфортными, так же произойдёт и в этом случае.

3 — копия_новый размер.png

– Не кажется ли вам, что на данном этапе развития искусственного интеллекта, внимание его разработчиков должно быть обращено уже не только на возможности, но и на риски, связанные с его применением?

– Безусловно. Кстати сказать, Владимир Владимирович Путин в процессе сберовской конференции по искусственному интеллекту не один раз в хорошем смысле «заземлял» её спикеров, говоривших только о плюсах цифровизации всего и вся. Так, например, утверждение о том, что полная цифровизация госуправления в стране неизбежно приведёт к повсеместному уничтожению бюрократии, сразу вызвало у президента вопрос, а не приведёт ли это к рождению новой цифровой бюрократии? В своём выступлении он несколько раз подчеркивал, что этические и правовые аспекты применения новейших технологий должны быть постоянно в поле зрения и ответственности соответствующих государственных, профессиональных и общественных структур.

– Согласившись, добровольно или не совсем, на цифровизацию и «искусственную интеллектуализацию» всего, включая образование, мы не можем теперь не реагировать на всё новые и новые их вызовы. Какой из них вы считаете на настоящий момент главным?

– Если иметь в виду конкретно высшую школу, то, несомненно, одним из главных и абсолютно новых для неё вызовов является необходимость как можно быстрее научиться адекватно функционировать в условиях, когда генерирование текстов с помощью технологий искусственного интеллекта типа ChatGPT, а также создание разного рода фото- и видеоконтента, становится доступным для каждого научного сотрудника, преподавателя вуза, студента и абитуриента. Этот вызов наглядно демонстрирует амбивалентную природу любой технологии: сначала, как правило, она представляется всем несомненным благом, делающим жизнь людей легче, проще и приятнее; но весьма скоро начинают проявляться её негативные черты. Они множатся и превращаются в новую острейшую проблему, сводящую к нулю почти все преимущества этой технологии. В результате жизнь людей становится намного сложнее, чем до её появления. Прошёл всего год со времени, когда ChatGPT стал доступен массовому потребителю. Сразу появилось огромное количество восторженных отзывов о том, как теперь легко и быстро писать тексты разного рода администраторам и копирайтерам. Однако, уже в феврале этого года прилетела отнюдь не благая весть от одного из московских вузов: защищена первая бакалаврская выпускная квалификационная работа по менеджменту, сгенерированная с помощью ChatGPT. Удивителен не факт её появления, так как рано или поздно это должно было случиться. Удивительно то, что вуз создал прецедент защиты такой работы, что на мой взгляд, абсолютно неправильно и недальновидно. И вот теперь учебный год ещё не закончился, а мы уже понимаем, с какой серьёзнейшей проблемой нам придётся столкнуться в процессе подготовки студентами выпускных работ и на самих защитах. Наверняка это будут далеко не единичные попытки со стороны обучающихся проверить на прочность вузовские системы проверки и контроля качества их бакалаврских ВКР и магистерских диссертаций. Та же самая проблема ожидает нас и в предстоящую приёмную кампанию в тех случаях, когда абитуриенты должны выполнить какое-либо письменное творческое задание.

4_новый размер.png

– Решаема ли эта проблема в принципе?

– Хочется надеяться, что да, но пока можно с уверенностью сказать только одно: российские университеты, да и общество в целом, даже ещё не осознали по-настоящему серьёзность и неотвратимость этой проблемы. Такая инертность реагирования на негативные проявления, связанные с новейшими технологиями, пока не даёт шансов на победу. До сих пор должным образом не решён вопрос о запрете использования студентами микронаушников во время экзаменов, несмотря на то, что он был поднят Министерством науки и высшего образования РФ ещё в 2021 году. Более того, у такого запрета появились свои оппоненты. И в данном случае я имею в виду не студентов. Некоторые вузовские администраторы считают, что блокирование мобильной связи может привести к несчастным случаям, когда, например, экзаменующимся может понадобиться экстренная медицинская помощь. И, к большому сожалению, такие факты уже действительно были. Во избежание подобных случаев другие администраторы предлагают разработать общий для всех протокол приёма экзаменов, предусматривающий присутствие ассистента экзаменатора, постоянно наблюдающего за состоянием студентов во время блокировки мобильной связи. Можно, конечно, пойти по китайскому пути, когда во время массовых единых государственных экзаменов контроль за поведением экзаменующихся возлагается на военных. Но, учитывая скорость появления и распространения новых технологий, лично мне подобные решения представляются бесперспективным. Что мы будем делать, какие протоколы разрабатывать, если, скажем, появится принципиально другой вид связи, и станет возможным проецирование текстов и визуализаций сразу на сетчатку глаза студента? Решения нужно искать совсем в другой плоскости.

– Не окажется ли вопрос о границах использования генераторов текста типа ChatGPT для вузов ещё более сложным, чем проблема с микронаушниками?

– Несомненно. Основная сложность этого вопроса в том, что большая часть процесса обучения в вузе построена именно на письме – репродуктивном и продуктивном. Первое воспроизводит (или генерирует) уже высказанные кем-либо когда-либо и где-либо мысли. То есть речь идёт, например, о конспектах лекций и учебников. Второе стало порождением собственных мыслей и напрямую связано с креативностью и критическим мышлением. Развитие навыков продуктивного письма – это одна из важнейших задач не только школы, но и вуза. И она решается лишь в условиях реальной практики, то есть через написание обучающимися множества разных видов текстов. В идеале способность к продуктивному письму у студента к моменту окончания его обучения должна максимально реализоваться и отразиться в его главном тексте – выпускной работе. Как в той или иной степени новизны выводов и результатов, к которым он пришёл, так и в характере самого авторского стиля изложения, а значит, мышления. Конечно, всё это достаточно тонкие вещи, учитывая, что есть ещё и общие требования к использованию универсального научного стиля, с одной стороны, и специальной терминологии, определяемой характером предметной деятельности, с другой. Тем не менее, до сих пор со всем этим в университетах так или иначе справлялись. И вот теперь, благодаря новейшим технологиям, наступает момент, когда всё может резко измениться как в лучшую, так и в худшую сторону.

– Что может стать кардинально лучше?

– Например, базовая подготовка по математике. Некоторое время назад нашему университету пришлось столкнуться с тем, что высокий процент студентов отчислялся из-за низкой успеваемости по предметам математического цикла. ТГУ принял этот вызов и вместе с компанией ENBISYS создал онлайн-платформу адаптивного обучения Plario, быстро и эффективно подтягивающую студента по математике до необходимого ему уровня. Этот цифровой репетитор учитывает индивидуальные особенности человека и предлагает ему персонализированный контент. Тестирование показало, что благодаря платформе Plario уже за 8 часов уровень владения студентом знаниями по математике возрастает с 22 до 87%. Несомненно, подобные платформы можно и нужно создавать и по другим дисциплинам или их разделам. И, прежде всего, это касается предметов естественно-научного цикла – физики, химии и других.

5_новый размер.png

– Иначе говоря, гуманитарная предметная сфера является для искусственного интеллекта «закрытой зоной»?

– Ну почему же? Цифровые репетиторы на основе искусственного интеллекта могут быть очень востребованы, например, при изучении иностранных языков. Кроме того, если речь идёт о необходимости систематизировать и резюмировать широкие массивы данных или текстов, то это можно делать с помощью ChatGPT в социологии, истории, культурологии, социальной психологии... Да в любой предметной области! Думаю, что мы ещё мало представляем потенциальные возможности ChatGPT, они будут открываться постепенно. Например, если иметь в виду, что ChatGPT умеет воспроизводить литературные стили известных писателей и даже поэтов, то, соответственно, это очень хороший инструмент для изучения различных авторских стилей.

Но если позволить искусственному интеллекту взять на себя создание текстов, которые по определению должны быть продуктивными, то есть оригинальными, творческими, то катастрофа неминуема. И она случится не только в отношении способности человека самостоятельно писать тексты, но и в отношении его культурного кода в целом. Ибо его формирование возможно только на базе родного языка, устной и письменной речи. С конца 1990-х годов люди в массовом порядке стали отдавать «на аутсорсинг» свою память, используя революционные по тем временам технологии – съёмные диски и флэшки, не особо задумываясь над последствиями этого шага. На первый взгляд это казалось чрезвычайно удобным. И что же мы наблюдаем сегодня? У молодых людей до сорока лет крайне плохая память. Они не способны запоминать более двух-трёх цифр или слов подряд, тогда как ещё недавно средней нормой считались шесть-семь. Историки, культурологи и антропологи бьют тревогу: ещё немного и начнёт разрушаться коллективная память народа как хранитель его культурного кода. Если на планете в результате чего-либо однажды отключится электричество и нельзя будет воспользоваться техническими устройствами, человечество будет не в состоянии вспомнить ничего из своей истории. Если мы отдадим на откуп искусственному интеллекту ещё и написание «продуктивных» текстов, на которые он в принципе не способен, так как выучен на уже существующих текстах, то сами превратимся из людей в собственные «репродукции», не умеющие самостоятельно мыслить и излагать. Как говорится, такой аутсорсинг нам не нужен!

Нам нужно другое: формировать у студентов критическое мышление. И, как ни парадоксально, помочь в этом может всё тот же искусственный интеллект и ChatGPT. Чтобы получить необходимый ответ, нужно уметь правильно задать вопрос. Поэтому ещё древние философы считали, что искусство вопроса гораздо сложнее искусства ответа. ChatGPT может стать своеобразным тренажером в умении вопрошать. Кроме того, любой сгенерированный текст требует проверки со стороны человека на предмет достоверности приведённых в нём фактов. Известно, что современные генераторы текста довольно часто предлагают правдоподобные, но не реальные кейсы. То есть они могут не только компилировать, но и фальсифицировать, создавать разного рода фейки. И это ещё одна важная причина обязательного критического осмысления того, что произведено искусственным интеллектом. Задача преподавателя – объяснить студентам, что одна и та же технология может и помогать, и вредить. Человек сам принимает решение: формировать ли у себя новые компетенции и способности с помощью ChatGPT как спарринг партнёра или идти по лёгкому пути, пользуясь готовыми сгенерированными текстами и никак при этом не развиваясь.

6_новый размер.png

– А чем ChatGPT может уже сегодня помочь преподавателю?

– Первое, что приходит в голову, – это разработка различных домашних заданий, тестов, вопросов к семинарам, зачётам и экзаменам. Это и обзоры больших массивов данных и текстов с соответствующими выводами, что самому преподавателю сделать крайне сложно. Ну и, конечно, написание разного рода отчетных документов и просто документов. Говорят, что ChatGPT прекрасно сочиняет служебные записки, особенно на премирование. В качестве такого референта он будет хорош и для руководителей вузовских подразделений.

– Теперь об ограничениях и рисках. Существуют ли в настоящее время надёжные способы, позволяющие преподавателям распознавать сгенерированные тексты, выдаваемые студентами за свои?

– Возможно, уже очень скоро появятся новые модели ChatGPT, которые будут помогать человеку распознавать тексты с точки зрения того, созданы они искусственным или природным интеллектом. Если говорить о сегодняшнем дне, то здесь мне хочется быть оптимистом и надеяться, что любой добросовестный и квалифицированный преподаватель при наличии доброй воли способен отличить сгенерированный искусственной нейросетью текст от оригинального текста студента, которого он учил какое-то время. Главным и самым релевантным методом идентификации авторства текста, на мой взгляд, может быть только «метод Сократа»: живой и достаточно подробный диалог со студентом, в процессе которого и выясняется, насколько тот свободно владеет материалом.

7_новый размер.png

Но даже если представить, что у нас абсолютно все преподаватели добросовестны, квалифицированы, волеориентированы и настроены на диалог с обучающимися, то всё равно остаётся вопрос: сколько им понадобится времени для того, чтобы применить этот метод к каждому студенту? И сколько должны длиться теперь защиты, чтобы члены государственной экзаменационной комиссии смогли соответствующим образом оценить все представленные на их суд работы? Вопросы остаются открытыми. Я уже не говорю о том, что некоторые очень уважаемые эксперты, например Игорь Станиславович Ашманов, более 30 лет работающий в сфере создания технологий искусственного интеллекта, не такие оптимисты, как я, и вообще считают, что на сегодняшний день не существует по-настоящему надёжных способов идентификации текстов с точки зрения написания их человеком или чатом GPT.

Кажется, что Игорь Ашманов в принципе очень скептически настроен в отношении искусственного интеллекта. Для него это, по сути, вовсе и не «интеллект», а просто очередная технологическая новация с непредсказуемыми во многом последствиями.

– И это правильная и очень ответственная позиция: в океане восторженных мнений и ожиданий от ChatGPT должны громко и настойчиво звучать и голоса экспертов-«скептиков», а точнее, реалистов, думающих обо всех возможных сценариях развития цифровизации образования и общества в целом. Не зря Игорь Станиславович является членом Совета при Президенте РФ по развитию гражданского общества и правам человека.

Мнение эксперта:

Лет 10 назад произошёл прорыв в области нейронных сетей. Но нейронные сети никаких нейронов в себе не содержат. Это чисто маркетинговый трюк. Нейронные сети – это слои матриц вероятностных коэффициентов. Это большие прямоугольные таблицы чисел-ячеек, в которых в каждой ячейке прописана какая-то вероятность. И больше там ничего нет. Да, научились строить такие многослойные матрицы. Но сказать, что искусственный интеллект устроен по принципу человеческого мозга, – это неправильно.
Игорь Ашманов: на материалах стенограммы открытой лекции «Влияние ИИ на образование, государство, общество и бизнес», 17.10.2023, ТГУ, Томск

ChatGPT выглядит как следующая итерация бредогенератов, которые делают последние 30 лет и, в основном, для нехороших целей: генерации фальшивых сайтов, генерации спама и тому подобного. Кроме того, что ChatGPT производит гладкий бред, так он ещё, на первый взгляд, «понимает» различные логические утверждения. И вот всё это вызывает шок у разработчиков. Рассказы о, якобы, очень хорошей работе ChatGPT являются неправдой. Это штука реально косячит в довольно большом проценте случаев. И все эти проблемы были ещё тогда, когда Яндекс собирал, так называемые, пресс-портреты. Например, в 2008 году я поинтересовался у одного специалиста, почему, на вопрос «Кто президент России?», Яндекс выдаёт ответ «Путин», хотя в то время был уже Медведев? Специалист объяснил, что это потому, что в интернете на тот момент было гораздо больше текстов, говорящих про Путина как президента, а не про Медведева. Поэтому искусственный интеллект Яндекса, собиравший пресс-портреты, так и отвечал. Но появится больше текстов про Медведева, и он станет отвечать правильно… То, что искусственный интеллект может выдавать фактические ошибки, самих разработчиков ChatGPT не пугает, поскольку они понимают, как это работает.

Если знаешь историю создания Гугл и других американских крупных IT-компаний, то становится очевидным, что и ChatGPT либо спонсируется, либо управляется разведкой или оборонкой США. Большинство технологий, с помощью которых евангелисты обещали перевернуть мир, оказывались, в конце концов, «пузырями». Вот самые известные из «пузырей»: доткомы (1997), соцсети (2010), стартапы (2012), блокчейн (2018), искусственный интеллект (1960, 1990, 2019). Например, блокчейн позволял, казалось бы, делать всё: криптовалюту, честные выборы, любое госуправление или управление бизнесом и т. д. Все чиновники, которые на это повелись, спешили подписывать бюджеты на блокчейн во всех возможных программах. Но потом «пузырь» блокчейна лопнул, хотя сама технология и осталась в рамках каких-то узких применений.

Так вот не является ли и ChatGPT таким пузырём? Пока неясно. Ясно одно, что огромное количество генерируемых текстов повлияет на бизнес обработки текстов: на их генерацию, анализ. Недавно Яндекс представил новую Алису, в которую встроен отечественный ChatGPT. Для чего это встраивать в поисковики? Потому что другие встраивают. На самом деле происходит то, что таким образом владельцам сайтов остаётся меньше трафика, так как всё забирают владельцы поисковиков. На этой же системе «замыкания в собственной вселенной» построен и Фейсбук (запрещённая в России соцсеть). Понятно, что в ChatGPT очень заинтересованы СМИ, в которых 95% текста производится с помощью алгоритмов и тупых роботов, пишущих ахинею.

Что касается общества, то в нём будет фальсифицировано всё, поскольку люди, в целом, не очень способны отличить текст, созданный генератором, от текста, созданного человеком. Люди уже начали фальсифицировать дипломы, научные статьи, диссертации. В Китае количество статей по искусственному интеллекту огромно: они хотят быть лидерами в этой сфере. И говорят, что уже в 2022г примерно 30% статей об ИИ там было написано самим ИИ. Это выяснилось, когда стали на практике проверять те результаты, о которых говорилось в статьях. Будут фальсифицировать и историю. Ко мне году в 2005 приходил человек с просьбой сделать поисковик для создания реестра верифицированных оригиналов. Уже в то время в интернете началась фальсификация текстов источников. Например, трудов Ленина, различных писателей. И эти фальсификации обычным обывателям невозможно увидеть. Происходит подмена смыслов. Предполагалось, что первоисточники будут сканироваться, верифицироваться, особым образом заверяться. И только с этого скана будут делаться цифровые «оригиналы» текстов. Денег на разработку такой системы этому человеку так и не выдали. Сейчас же ChatGPT сделает фальсификацию текстов всеобъемлющим процессом. Как реагировать на это ректоратам, ученым советам, законодательным органам? Проблема ещё и в том, что люди с удовольствием становятся рабами новых технологий, с удовольствием отдают им всю ответственность. Но в результате становятся не только рабами, но и жертвами.

Итак, искусственный интеллект всё усредняет. Он берёт плоды всех этих тупых маркетологов и копирайтеров и просто гладко их воспроизводит. Поэтому общее качество будет неумолимо падать. Возможно, кто-то будет создавать ИИ, обученный на лучших образцах. У людей появится невзыскательность. Как они привыкли к фастфуду, так они привыкнут и к этому. Через пару поколений пропадут и компетенции, которые позволяют отличить низкое качество от высокого. Если ИИ всунут в образование, то учить детей опять будет ChatGPT. Но он не научит отличать аутентичные мысли от искусственных.
Игорь Ашманов: на материалах стенограммы выступления «О влиянии нейросетей на сферу IT, государство, общество и бизнес», 17.05.2023, МГИМО, Москва

8_И.Ашманов.png

 

Резко, но трезво, без иллюзий.

– Возможно. Но такие трезвые и резкие оценки ситуации с ChatGPT со стороны отечественных экспертных сообществ – IT и научно-образовательного – помогают держать её в зоне постоянного общественного внимания как чрезвычайно проблемную и непредсказуемую. Если пустить всё на самотёк, то безудержная коммерциализация технологии ChatGPT очень быстро победит все остальные тенденции, связанные с его возможностями для реального развития человека, и даже сам здравый смысл. Мы видим, какие коллизии сегодня происходят в компании OpenAI, первой разработавшей ChatGPT. Интересы людей, стремящихся максимально и быстро нажиться на ChatGPT, столкнулись с интересами тех, кто призывает сначала более подробно изучить возможные сценарии широкого проникновения этой технологии во все сферы общества, а потом уже нажимать кнопку «старт». И пока что первые побеждают! Так мы можем и не заметить, как наши судьбы будет полностью решать искусственный интеллект, представая перед нами в образе цифрового «судьи», «врача», какого-либо «эксперта». Уже во многом произошло обезличивание, деперсонализация таких сфер, как государственные, банковские и торговые услуги, услуги ЖКХ и так далее. Здесь мы говорим по телефону и переписываемся не с людьми, а ботами. И задача этих ботов, как считает Игорь Ашманов, вовсе не помогать нам, клиентам, а снижать нагрузку на справочные службы соответствующих организаций. И надо сказать, что эти технологии постоянно совершенствуются. Всё сложнее распознавать в них не-людей, настолько гладкой и даже эмоционально насыщенной становится их искусственная речь. Да и сами их советы и рекомендации выглядят всё более логичными и содержательными.

 

Это любопытно: советы по распознаванию студенческих текстов, данные Алисой, виртуальным помощником, созданным компанией Яндекс –

давай придумаем_новый размер.png

А это уже советы другой нейросети, TalkAI:

советы ИИ.png

Быстро развивающаяся практика использования ChatGPT говорит и о том, что разные его виды, созданные различными компаниями-разработчиками, в одно и то же время могут обладать разными «мировоззренческими позициями» или «картинами мира», которые могут впоследствии измениться! Об этом должны знать и помнить те, кто обращается к нейросетям за ответами и «советами». 

Это любопытно:

21 ноября 2023 года нейросеть TalkAI уже была готова дать прямой ответ на вопрос о рисках цифровизации высшего образования и общества в целом.

советы2 TalkAI.png

советы3 TalkAI.png

В этот же день, 21 ноября 2023 года, виртуальный помощник Алиса (Яндекс) отвечала на аналогичный вопрос следующим образом:

советы Алиса 3.png

советы Алиса 4.png

советы Алиса 5.png


2 декабря 2023 года Алиса на подобные вопросы отвечала уже по-другому:

советы Алиса 6.png

советы Алиса 7.png


– Эдуард Владимирович, какая мысль вам представляется самой важной в раскрытии темы о значении искусственного интеллекта для сферы высшего образования?

– Из сказанного выше можно сделать лишь один вывод: качество обучения может кардинально улучшиться только там, где искусственный интеллект помогает студентам, тренирует их, развивает, но не делает вместо них работу – не создает интеллектуальные продукты от имени студентов. Мы получили мощнейший инструмент для когнитивного расширения человека и постановки его критического мышления и одновременно очень рискованную технологию. Здесь можно провести аналогию с экзоскелетом, чрезмерное использование которого может привести к атрофии мышц и суставов, тогда как задуман он был для расширения физических возможностей человека. Задача университетов – спроектировать, как с помощью технологий искусственного интеллекта сделать студентов более сильными и ответственными. Выработав определенные процедуры, университеты должны стать центрами верификации продуктов, создаваемых с помощью искусственного интеллекта. Но эту историю нужно проработать и дидактически, и методически; пересобрать образование и воспитание с учетом новых реалий. При этом все мы понимаем, что установки для искусственного интеллекта делают пока ещё сами люди. Это они должны осознать не только возможности, но и ограничения и даже риски новых технологий. Именно с таким осознанием мы должны решать задачи, связанные с дальнейшей цифровизацией и развитием искусственного интеллекта в нашей сфере, и отвечать на все их вызовы, о которых мы ещё не раз будем говорить в этом блоге.

Ректор ТГУ Эдуард Галажинский,
член Совета по науке и образованию при Президенте РФ

Записала беседу и подобрала справочный материал
Ирина Кужелева-Саган


ПЕРЕЙТИ В РАЗДЕЛ «СЛОВО – РЕКТОРУ»

ПЕРЕЙТИ В РАЗДЕЛ «СЛОВО – РЕКТОРУ»

Возможно, вас заинтересует

29.01.2024

Сверка координат

Ректор ТГУ делится своими мыслями и впечатлениями о реализации пилотного