Materials of the joint scientific seminar of the Institute of Informatics and Cybernetics and the Institute of Social Sciences and Humanities


Cite item

Full Text

Abstract

Kupriyanov, A.V., Vaskina, Yu.V., Sergeeva, Е.N., Materials of the joint scientific seminar of the Institute of Informatics and Cybernetics and the Institute of Social Sciences and Humanities

Full Text

25 мая 2023 года в Самарском университете состоялся совместный научный семинар института информатики и кибернетики и социально-гуманитарного института «Технологии искусственного интеллекта: возможности и ограничения».
Семинар открыло выступление А.В. Куприянова, д.т.н., директора института информатики и кибернетики, завкафедрой технической кибернетики на тему «Киберпанк сегодня: куда ведет ChatGPT». Со вторым докладом «Искусственный интеллект, его возможности и социальные последствия: мнение населения и экспертов» выступила Ю.В. Васькина, к.с.н., завкафедрой социологии и культурологи. После каждого доклада участники семинара смогли задать выступающим вопросы.    
В процессе дискуссии по вопросам, освещенным на семинаре, прозвучали реплики и вопросы д.ф.н., директора социально-гуманитарного института А.Ю. Нестерова, к.пс.н. С.В. Березина, к.с.н. О.А. Малакановой, к.филол.н. Н.А. Масленковой, к.пс.н. С.В. Зориной.

Александр Викторович Куприянов в своем докладе затронул актуальные вопросы развития искусственного интеллекта, сделав акцент на чате ChatGPT, характеристике преимуществ и возможных угроз подобных технологий.
В начале своего выступления докладчик напомнил слушателям о том, что каждая из происходивших на протяжении истории человечества перемен – промышленных революций – порождала тревоги и опасения; вторая промышленная революция сопровождалась движением луддитов, а третья породила, например, такое явление искусства, как кибер панк. В своих книгах и фильмах авторы киберпанка рисовали антиутопический мир ближайшего будущего с развитыми информационными технологиями, внедренными в повседневную жизнь (искусственный интеллект, киберфизические системы, виртуальная реальность), в котором человек становится ненужным и технологии полностью заменяют его; как правило, мир становился таким в результате некоего катаклизма, экологической катастрофы или мировой войны. Произведения киберпанка изображают торжество информационных технологий как катастрофу для человечества, по сути, находящегося на грани выживания. 
А.В. Куприянов отметил, что нынешнюю ситуацию можно охарактеризовать как эпоху киберпанка, хотя она наступила не в результате катастрофы или катаклизма и человечество находится в относительно благоприятных условиях развития. Искусственный интеллект проник в очень многие сферы. В промышленность киберфизические системы внедряются уже давно, и скоро, очевидно, войдут и в повседневный обиход.  Виртуальная реальность уже давно применяется не только в играх, но и в промышленности и технологиях. 
Несмотря на то, что никто не возьмет на себя смелость говорить о завершении третьей промышленной революции, многие исследователи начинают задаваться вопросом, а не произошла ли уже четвертая, не наступила ли еще одна эпоха, поскольку сейчас неотъемлемой частью нашей жизни становятся компьютеры, системы искусственного интеллекта.
А.В. Куприянов отметил, что устоявшегося определения искусственного интеллекта нет. В 1956 году в Дартмутском колледже в США прошел семинар, на котором «Artificial intelligence» («AI») был утвержден в качестве нового научного направления. Термин этот впервые появился в работах Алана Тьюринга. Тьюринг рассуждал о том, можно ли построить алгоритм, который будет имитировать творческие функции человека, и назвал это искусственным интеллектом. 
Мысль Тьюринга о том, что искусственный интеллект связан с творческой функцией, послужила основой развития технологии искусственного интеллекта:  вместо того чтобы заранее писать программу, которая выполняет запрограммирован-
ные функции, нужно написать программу, которая имитирует мозг ребенка, чтобы она в процессе своей деятельности усложнялась, обучалась, запоминала, выводила новые правила, что было революционной для того времени идеей. 
Переходя к обсуждению технологий, которые лежат в основе современных систем искусственного интеллекта, докладчик подчеркнул, что если обсуждать с философами, что такое интеллект вообще, то можно получить перечень характеристик, которые в данное время вынуждены признать за искусственным интеллектом (наличие некоей собственной модели внешнего мира, способность пополнять имеющиеся запасы знаний, способность принимать решение в зависимости от ситуации, поддерживать диалог с человеком, способность к адаптации). Все эти характеристики в той или иной мере демонстрируют современные технологии искусственного интеллекта, в частности, ChatGPT.
Докладчик напомнил, что с течением времени мысль о превосходстве естественного интеллекта над искусственным постепенно ставилась под сомнение. Знаковыми вехами в этом процессе стали, например, победа компьютера IBM Deep Blue над чемпионом мира по шахматам в 1997 году, внедрение искусственного интеллекта в сферу перевода, победа системы обработки натуральной речи и ответов на вопросы IBM Watson В 2011 году в телевикторине «Jeopardy!». Но революционным событием стало основание Илоном Маском в 2015 году 
фонда OpenAI, занимающегося разработкой открытых систем искусственного интеллекта, и появление GPT-модели (первая версия появилась 11 июня 2018 года, последняя вышла 14 марта 2023 года).
Далее докладчик остановился на принципе работы нейронных сетей, которые лежат в основе всех этих технологий. В конце 19 века, когда биологи взглянули на нервную ткань под микроскопом, они выдвинули одну интересную гипотезу, а позже кибернетики У. Мак-Каллок и У. Питтс сформулировали основное положение деятельности мозга: вся интеллектуальная деятельность заключена в ячейках, «нейронах», которые соединены с большим количеством других нейронов и взаимодействуют между собой. И хотя современное понимание деятельности человеческого мозга ушло далеко вперед, и возможно, та модель не просто наивна, но даже и неправильна, но на кибернетику она оказала огромное влияние. В 1958 году Фрэнк Розенблатт предложил первую искусственную нейронную сеть. Родилось понимание, что чем больше таких нейронов человек соединит в глобальную сеть, тем более сложные задачи научится решать. 
Далее Александр Викторович остановился на том широком диапазоне задач, которые могут решать нейронные сети (обработка изображений, извлечение информации, распознавание образов, решение каких-то сложных задач). Кроме того,  нейронные сети способны не только к аналитической работе, они могут и  создавать новые объекты, создавать видео-, аудиоданные, а также тексты. Докладчик отметил, что в ряду того, что может нейронная сеть, отдельным аспектом является работа с текстами.
Далее в выступлении более подробно были охарактеризованы возможности современных интеллектуальных систем при работе с текстами. Докладчик подчеркнул, что подход нейросетей в работе с языком принципиально другой, чем у лингвистов. Нейросети не строят языковых моделей, не выводят правил. По сути, все языковые модели строятся на очень простом принципе: программа на основе анализа огромного массива языковых данных предсказывает следующее слово, которое должно появиться в этом предложении. Почему в результате появляется связный текст, почему появляется логика, которая иногда действительно поражает, – это основная проблема.
К умениям ChatGPT выступающий относит умение писать код на различных языках программирования: программа не ищет запрашиваемый код в интернете, а сама создает его. Кроме того, ChаtGPT умеет осуществлять перевод с одного языка на другой, он знает 25 языков, но что самое интересное, он умеет переводить «с русского на русский», то есть перефразировать текст в соответствии с запросом. Пользователь может написать: «расскажи об этом как ребенку», «расскажи как профессору», и чат будет имитировать указанный стиль общения. Он умеет оптимизировать алгоритмы; если ему дать задачку, в которой будет какая-то последовательность действий, он определит лишние действия. Он умеет отвечать на различные сложные вопросы, сочинять стихи и тексты для песен, писать эссе и сочинения. 
С теоретической точки зрения у нас впервые появилась технология, которая позволяет обрабатывать текст на очень высоком уровне сложности. Однако в практической плоскости это приводит к проблемам. Знаком того, что эти технологии достигли высокого уровня развития, является тот факт, что сейчас довольно затруднительно определить относительно конкретного текста, создан он нейросетью или человеком. ChatGPT умеет перефразировать тексты, что создает проблемы в определении плагиата. 
Далее А.В. Куприянов обратил внимание участников семинара на опасности, которые несут с собой технологии искусственного интеллекта. Искусственный интеллект может генерировать тексты, которые не существовали, а дальше сможет генерировать аудио и видео, которых никогда не существовало. Сейчас исследуются технологии, которые могли бы помочь детектировать так называемые «фейки», но стоит понимать, что это битва двух кибернетических машин, и какая из них победит, абсолютно неясно. Как только появляются технологии, детектирующие тексты, написанные чат-ботом, сразу же появляется определенное дополнение к этому чат-боту, которое усложняет свою деятельность, и его продукт вновь становится невозможно детектировать. Следующая опасность – это манипуляция сознанием. Использование подобных технологий на государственном уровне может привести к качественно новому уровню манипуляции общественным сознанием на основе массированной генерации и доставки высокореалистичного текстового, аудио- и видеоконтента заданной направленности.
Следующая сфера, в которой докладчик видит назревающие проблемы, – это образование. Технологии типа GPT могут существенно понизить качество образования, поскольку возможности нейросетей по перефразированию текста делают системы проверки на плагиат бесполезными, а качество генерации текстов на любую тему сделает невозможным выдачу любых письменных домашних заданий, поскольку любое задание может быть выполнено программой. Конечно, для студентов велик соблазн использовать эти технологии в своей практической деятельности. Но чему же тогда может научиться студент –  это большой вопрос.
Докладчик указал и на еще одну – более широкую – проблему. Как третья технологическая революция ограничила человека в необходимости физической активности, так четвертая лишает человека необходимости в памяти. Проще подсмотреть различные даты, события, фамилии и т.д. в интернете, чем держать в памяти. ChatGPT в этом плане работает намного лучше, чем человек: запоминает все, сохраняет контекст, помнит, о чем его спрашивали и что от него хотели и т.д. 
По мнению А.В. Куприянова, стоит привлечь внимание и к еще одной проблеме, связанной с навыками управления и принятия решений. Все чаще при выполнении рутинных процессов специалистов заменяет искусственный интеллект, и они рискуют утратить свои навыки. При этом есть опасность, что в нестандартной ситуации искусственный интеллект не сможет предложить решение, а специалисты уже утратят свои умения.
По мнению выступающего, одно из объяснений того, почему сейчас человечество стало это активно обсуждать, состоит в том, что общество подошло к некоей точке бифуркации, когда нужно либо менять отношение к себе и обществу, к машинам, либо что-то вообще делать с новыми технологиями, например, как луддиты. Значимые технологии всегда несут с собой как социальные блага, так и риски деградации. И их использование во зло или во благо целиком зависит лишь от людей. 
Все четыре технологических революции сопровождались, по мнению большинства исследователей, ощущением кризиса, надвигающейся катастрофы. Сначала люди опасались промышленных технологий, потом компьютерных технологий, теперь – кибернетических технологий. 
Но ведущая роль и в наступающей цифровой эпохе все равно будет принадлежать человеку. И человек – это особое существо, которое нашло в себе внутренние ресурсы и способности справляться практически с любой ситуацией, какая бы угроза существованию ни появлялась.   

Со следующим докладом выступила Юлия Владимировна Васькина.
Она отметила, что в своем выступлении хотела бы сначала остановиться на том, как население России и экспертное сообщество оценивают влияние новых технологий, в частности, нейросетей и искусственного интеллекта, на людей по отдельности, на общество в целом, и какие строит прогнозы. Юлия Владимировна подчеркнула, что как социолог будет, прежде всего, говорить о мнении других людей, и лишь в конце доклада затронет вопросы, которые показались интересными ей лично. Она обратилась к исследованию, которое в апреле 2023 года провел ВЦИОМ на репрезентативной для России выборке на тему «Отношение россиян к нейросетям», и предложила ознакомиться с его результатами. 
Прежде всего, россиян спрашивали о том, насколько хорошо они информированы о такой технологии, как нейросети. Выяснилось, что 37 % опрошенных узнали о существовании нейросетей лишь в процессе опроса, 63 % ответили, что знают о нейросетях. Но среди этих 63 % знающих 51 % 
сказали, что «что-то слышали», и только 12 % оценили свои знания как хорошие. 
Следующий вопрос был направлен на выяснение самооценки знаний о нейросетях представителей разных социально-демографических групп. Среди мужчин доля оценок «хорошо разбираются» в два раза выше, чем среди женщин. С увеличением возраста доля тех, кто считает себя хорошо информированными, снижается, причем в 10 раз. Треть молодежи считает, что они хорошо разбираются в нейросетях. 
Ю.В. Васькина обратила внимание слушателей, что информированность о нейросетях зависит и от типа населенного пункта, в котором живут респонденты, и от предпочитаемого источника информации. Жители крупных городов, и особенно Москвы и Петербурга, значительно чаще отвечают, что они хорошо разбираются в нейросетях, чем жители сельских населенных пунктов. Основной источник, из которого население получает информацию, еще более значимо дифференцирует ответы: среди тех, кто указывает в качестве основного источника информации интернет, в 24 раза больше ответов о том, что они хорошо разбираются в нейросетях.
Далее в исследовании, отметил докладчик, выяснялось отношение россияне к нейросетям. Треть всех опрошенных (35 %) охарактеризовали свое отношение как положительное, 40 % – как нейтральное, каждый пятый опрошенный относится к нейросетям отрицательно и только 5 % затруднились определить свое отношение. 
Очень интересно, по мнению Юлии Владимировны, распределение ответов в зависимости от оценки собственного уровня информированности о нейросетях. Среди тех, кто хорошо знает о нейросетях, положительно к ним относятся две трети, среди тех, кто что-то слышал, – треть, и среди тех, кто ничего не знал о нейросетях, – лишь пятая часть. С уменьшением информированности доля отрицательных ответов растет не так сильно, как доля нейтральных. То есть незнание о нейросетях не приводит к их отрицанию, оно приводит только к нейтральному отношению. Докладчик сослался на аналитиков ВЦИОМа, которые охарактеризовали эту закономерность следующим образом: «преобладает нейтрально-положительное отношение».
Аналитики ВЦИОМа составили и портреты одобряющего и не одобряющего нейросети россиянина. Типичный россиянин, с одобрением относящийся к нейросетям, – это мужчина до 34 лет, 
с высшим образованием, живущий в Москве или Санкт-Петербурге и активно пользующийся интернетом. Типичный россиянин, который воспринимает нейросети негативно, – женщина в возрасте 40-45 лет, оценивающая материальное положение семьи как плохое и постоянно смотрящая телевизор. 
Продолжая освещать результаты данного исследования, Юлия Владимировна привела данные о том, насколько часто опрошенные встречаются с результатами работы нейросетей. Чуть более четверти опрошенных встречались с ними лично, две трети не встречались и 8 % не могли сказать определенно. Чаще всего имеет дело с результатами нейросетей молодежь 18–24 лет (58 %), активные пользователи интернета и хорошо информированные, – здесь доля тех, кто встречался с результатами работы нейросети, доходит до четырех пятых. Наиболее распространены такие результаты, как изображения или фотографии (каждый пятый опрошенный с ними встречался), в меньшей степени (5 %) – сгенерированные тексты, и совсем немного респондентов пытались писать учебные работы, используя голосовых помощников или чат-ботов. 
Далее Ю.В. Васькина предложила познакомиться с мнением россиян относительно того, чем грозят (и грозят ли вообще) новые технологии искусственного интеллекта. Первое, о чем спросили россиян в плане прогноза, это их мнение о том, могут ли новые технологии заменить человека в творческих профессиях. Каждый пятый опрошенный считает, что технологии смогут взять на себя работу творческих профессий, но всё-таки преобладающее мнение (две трети опрошенных) – что нельзя заменить человека никаким искусственным интеллектом и другими технологиями. Затруднились ответить на этот вопрос 
12 %. Докладчик обратил внимание слушателей на закономерность: чем старше возраст, тем ниже доля тех, кто верит в способность искусственного интеллекта заменить человека в творчестве. Также те, кто оценивают свое знание о нейросетях как «хорошее», в большей мере верят в возможную замену человека.
Следующий вопрос, ответы на который охарактеризовала Ю.В. Васькина, выясняет мнение респондентов о том, возможен ли выход новых технологий из-под контроля человека. Треть считают, что возможно, в два раза больше россиян считают, что невозможно, каждый десятый не знает, что ответить на этот вопрос. С повышением возраста повышается доля тех, кто прогнозирует выход нейросетей из-под контроля человека. Те, кто хорошо разбирается в новой технологии, в меньшей степени боятся, что она выйдет из-под контроля. 
Подводя итоги, Ю.В. Васькина отметила, что на материале опроса мы можем понять, какие социально-демографические признаки влияют на отношение россиян к новым технологиям. Те, кто хорошо информирован о нейросетях, является активным пользователем интернета, принадлежит к молодежным возрастным группам, живет в крупных городах, – те относятся к нейросетям положительно, высоко оценивают их возможности (в том смысле, что они могут заменить человека в творческих профессиях) и в меньшей степени боятся их выхода из-под контроля человека. Среднестатистический россиянин нейтрально-положительно оценивает новые технологии и в основном не опасается того, что они могут  его вытеснить из сферы труда и вообще каким-то образом нанести ему вред.
Затем Ю.В. Васькина представила вниманию слушателей мнение экспертов – специалистов как в сфере гуманитарных, социальных, так и в сфере компьютерных наук, занимающихся анализом и прогнозированием влияния инноваций на общество.
Прежде всего было предложено обратить внимание на положительные эффекты. Эксперты говорят о многих новых возможностях для человека, из которых в докладе приводятся лишь некоторые. 
Анализ и интерпретация текста становятся более доступными и легкими, – здесь Ю.В. Васькина адресовала слушателей к материалам предыдущего доклада. Примером может быть отечественная разработка, программа, анализирующая текст на предмет того, написан ли он с целью убедить кого-либо в чем-либо. Она может быть использована для анализа публикаций в СМИ на предмет предвзятости. Также новые технологии делают возможной научную коммуникацию с широкой общественностью, так как нейросети могут формулировать информацию с учетом аудитории.
Продолжая характеризовать положительные следствия распространения новых информационных технологий, Юлия Владимировна привела в пример совершенствование медицинской помощи, управление городами, борьбу с преступностью, – все это повышает качество жизни населения. Это управление транспортными системами города, управление в сфере ЖКХ, дома с «умными системами», которые реагируют на то, что делают жильцы, например, вызывают им «скорую помощь», если видят, что кто-то упал в коридоре и не производит никаких действий, или отслеживают какие-то иные параметры жизнедеятельности. 
С другой стороны, как подчеркнул докладчик, эти технологии создают и проблемы для человека и общества. Прежде всего, это вторжение в частную жизнь. Во время нахождения в каких-то общественных местах люди в 90 % случаев не задумываются о том, что их пребывание здесь фиксируется. Если они попадают в зону видимости камер, то все, что они делают, с кем и когда, остается в памяти системы, и об этом может узнать тот, кто пользуется этой системой. Возможно, люди не хотели бы, чтобы об этом знали, но не потому что занимаются чем-то преступным, а потому что оберегают свое личное пространство. 
С новыми возможностями нейросетей связана и нерешенность многих правовых и этических проблем. Сейчас в Европейском Союзе разрабатывается законопроект, который призван разделить все системы искусственного интеллекта на четыре группы, по степени риска для людей. Степенью риска называется вероятность нарушения прав человека с применением этих технологий. Самый первый уровень – это системы, которые не представляют такого риска, а четвертый уровень – это системы с очень высоким риском. Уже упомянутые камеры слежения и система распознавания лиц будут относиться к четвертому уровню риска. И предлагается сделать так, чтобы пользоваться этими системами (то есть получать доступ к информации о пребывании человека в каком-нибудь месте) могли бы только специальные органы по решению суда или каких-то других органов. От этих рисков людей нужно страховать, и поэтому сейчас этот законопроект в разработке.
Продолжая перечислять риски, связанные с мас-
совым распространением нейросетей, Ю.В. Вась-
кина назвала еще один – массовую безработицу. Уже отмечалось, что существует возможность замены человека роботами, искусственным интеллектом, и в этой связи возникает опасение, насколько широко будет распространяться безработица. Конечно, можно говорить, что все предыдущие опасения – например, тех же луддитов – не оправдывались, ведь новая промышленная революция хоть и уничтожала какие-то профессии и сферы труда, но создавала и новые. И современная промышленная революция уже рождает новые профессии. Кроме того, никто не отменяет удовлетворения физиологических потребностей человека, поэтому люди и дальше будут работать и в сфере производства, и в сфере услуг. Тем не менее такая тенденция – замена человека роботами – 
набирает обороты. И многие страны уже опробуют схемы безусловного дохода, когда человеку назначается некий доход независимо от того, нуждается ли он в чем-то, имеет ли он работу и т.д. По мнению докладчика, возникает вопрос, как начнет меняться социальная стратификация сообщества, то есть те критерии, которые сейчас еще продолжают действовать. Например, сейчас статус безработного понижает человека в системе стратификации, но если безработных будет большинство, то это уже перестанет быть стигматизирующим статусом. 
Очередной риск – это выход компьютеров из-под контроля человека. Хотя опрос общественного мнения показывает отсутствие у большинства респондентов таких опасений, но как раз те, кто хорошо разбирается в искусственном интеллекте, эти опасения высказывают. Например, Илон Маск требует остановить разработку искусственного интеллекта. Разработчик нейросетей Джеффри Хинтон, «крестный отец» искусственного интеллекта, недавно уволился с поста вице-президента Google, обосновав это тем, что развитие искусственного интеллекта  может способствовать распространению дезинформации, поскольку люди больше не смогут отличать правду от лжи, и он себя освобождает от должности,  чтобы иметь свободу высказываться по поводу этих негативных последствий, которые несет технология искусственного интеллекта. 
Ю.В. Васькина также обратила внимание присутствующих на тенденцию, замеченную ею во время подготовки доклада: некоторые факты свидетельствуют о том, что современные пользователи искусственного интеллекта теряют свою субъектность и как будто бы не требуют субъектности от тех, с кем они вступают во взаимоотношения. Поводом об этом задуматься стали два интервью. Одно интервью провели журналисты РБК с искусственным интеллектом, с ChatGPT. Они спрашивали, что ChatGPT прогнозирует в ближайшем будущем для россиян и для человечества. ChatGPT предсказал ядерный взрыв на Южном полюсе, пришествие инопланетян и много других катастроф, в том числе развитие онкологических заболеваний, с которыми мы не сможем бороться.  Второе интервью один из немецких журналистов взял у GPT, как будто бы он брал интервью у Михаэля Шумахера, знаменитого гонщика «Формулы-1», который вот уже около 10 лет после произошедшего с ним несчастного случая неспособен к полноценному общению с окружающими. Редакция издания уволила журналиста за это нарушение журналистской этики. По мнению докладчика, эти примеры по-новому ставят вопрос утраты субъектности. Почему журналистам интересно беседовать с чат-ботом и принимать во внимание его ответы, если у него нет субъектности, личности? Оба упомянутых случая показывают, что мы перестаем нуждаться в собеседнике как в представителе, носителе духовного мира. Мы теряем и свою субъектность в принятии решений: нейросети подсказывают нам эти решения, и мы с готовностью им следуем. В этой связи Ю.В. Васькина призвала социологов задуматься, насколько адекватны в таком случае классические объяснительные схемы анализа поведения социальных групп и человека, – например, понимающая социология М. Вебера, продолжают ли они быть применимы к анализу поведения людей в обществе. Если, например, вопреки марксистской концепции,  мы в скором времени не будем воспринимать труд как способ самореализации человека, то непонятно, как, через какие виды деятельности человек будет выражать свою социокультурную сущность.
Свое выступление Ю.В. Васькина завершила мыслью, что человечество еще не адаптировалось к новой технологии, и любые инновации, особенно радикальные, встречают сопротивление вплоть до требования отменить и запретить. Но пройдет некоторое время, и искусственный интеллект перестанет вызывать столько споров, люди к нему привыкнут и интегрируют в свою жизнь. 
После окончания докладов среди участников семинара развернулась оживленная дискуссия.
Докладчикам были заданы многочисленные вопросы. Слушатели интересовались, в частности, используют ли сами докладчики ChatGPT в своей исследовательской и преподавательской работе; способен ли будет искусственный интеллект в будущем решать проблемы не только в сфере интеллектуальной, но и  проблемы нравственного выбора; есть ли у социологов данные о динамике изменения отношения общества к нейросетям и так далее.
Присутствующие, многие из которых уже имеют опыт общения и работы с нейросетями, высказывали свои впечатления и задавали вопросы. В частности, к.пс.н. С.В. Зорина рассказала, что ставила перед ChatGPT задачу найти статьи на определенную тему, и чат предоставлял список ссылок, однако ссылки эти были фиктивными. В ответ А.В. Куприянов напомнил, что нейросеть не обладает собственным знанием, а лишь посредством  анализа огромного массива языковых данных предполагает, какое слово должно быть следующим. И при команде «найти подходящие ссылки» нейросеть не ищет их, а генерирует нечто, похожее на ссылки.
К.пс.н. С.В. Березин адресовал А.В. Куприянову следующий вопрос: если искусственный интеллект способен распознавать эмоции, то способен ли он распознавать также и «симуляцию» эмоций, то есть способен ли он определить, что человек, изображая на лице доброжелательность, на самом деле в данный момент испытывает отвращение или злость? А.В. Куприянов в своем ответе заметил, что  сейчас нейросеть обучена считывать эмоции по микроизменениям мимики, обучена детектировать то, что человек пытается что-то скрыть, что он держится неестественно, а значит, с развитием технологии возможным будет и распознавать более сложные и смешанные эмоции. 
К.с.н. О.А. Малаканова подняла вопрос о том, как должна измениться работа с информацией в гуманитарных науках, – в частности, в социологии, – в ситуации, когда нейросеть может продуцировать большое количество текстов, относительно которых трудно будет сказать определенно, фейковые они или подлинные. О.А. Малаканова указала и на то обстоятельство, что в современной культуре понятие подлинности в принципе проблематизируется (например, трудно применить прежние критерии подлинности к информации в аккаунтах уже умерших людей, которые ведут их близкие, или к сообщениям, которые публикует робот София от  Hanson Robotics, ведущая свои страницы в социальных сетях).
К обсуждению активно подключались и присутствовавшие в зале слушатели, задававшие докладчикам вопросы, в частности, являются ли фейки, которые продуцирует нейросеть, проблемой социальной или проблемой технической; стоит ли человечеству опасаться того, что искусственный интеллект возьмет на себя функции памяти; может ли искусственный интеллект, будучи созданием человека, выйти из-под контроля, как это описывается в научно-фантастических произведениях.  
В ходе дискуссии затронуты были и более широкие общегуманитарные проблемы, в частности, проблемы различия естественного и гуманитарного знания, изменения социальной среды в результате включения в нашу жизнь искусственного интеллекта, а также вставшая в последнее время перед человечеством необходимость перестраивать свои отношения с информацией. О.А . Малакановой были упомянуты труды Маршалла Маклюэна с его концепцией внешних расширений человека, исследования Бруно Латура, предложившего схему исследования взаимодействия с неживыми актантами, работы Льва Мановича о влиянии на человеческое сознание компьютерной программы. Взгляды этих ученых помогут науке найти язык описания новых феноменов, таких как нейросети, и новых проблем, возникающих вместе с ними.
Оживленную реакцию присутствующих вызвала реплика к.филол.н. Н.А. Масленковой, обратившей внимание докладчиков на то, что, говоря «ChatGPT научился», «нейросеть научилась», те наделяют систему несвойственной ей субъектностью. Проблема специфической субъектности AI-агентов в ситуации все возрастающей сложности технологий искусственного интеллекта, бесспорно, нуждается в дальнейшем обсуждении. Это может стать темой следующих семинаров – в этом были солидарны все  участники семинара.
В процессе обсуждения участники семинара высказали также мнение о том, что еще одной важной темой для обсуждения на следующих встречах междисциплинарного семинара должно стать изменение образовательного процесса в свете проблемы нейросетей.
В заключение директор социально-гуманитарного института д.ф.н. А.Ю. Нестеров поблагодарил докладчиков и участников семинара и высказал пожелание совместному научному семинару института информатики и кибернетики и социально-гуманитарного института продолжить свою работу.

×

About the authors

Alexander V. Kupriyanov

Samara National Research University

Email: akupr@smr.ru

Doctor of Technical Sciences, Director of the Institute of Informatics and Cybernetics, Head of the Technical Cybernetics Department

Russian Federation, 34, Moskovskoe Shosse (St.), Samara, 443086, Russian Federation

Yuliya V. Vaskina

Samara National Research University

Email: vaskina18.05@gmail.com
ORCID iD: 0000-0002-0586-839X

Candidate Degree in Sociology, Associate Professor, Associate Professor of Sociology and Culturology Department

Russian Federation, 34, Moskovskoe Shosse, Samara, 443086, Russian Federation

Elena N. Sergeeva

Samara National Research University

Author for correspondence.
Email: e.n.sergeeva@gmail.com

Candidate of Philological Sciences, Associate Professor of the Russian and Foreign Literature and Public Relations Department

Russian Federation, 34, Moskovskoe Shosse (St.), Samara, 443086, Russian Federation

References

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2024 Kupriyanov A.V., Vaskina Y.V., Sergeeva E.N.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies