ChatGPT and the elimination of humans


Cite item

Full Text

Abstract

Artificial intelligence is increasingly providing us with amazing assistance, but at the same time, fear of its power is developing. The benefits of ChatGPT are not nearly as great as the harmful consequences of the program. Copyright is being undermined, creative achievements in the arts are becoming replaceable or are suspected of being machine products, and the same applies to achievements in schools and universities. Attempts are being made to control these consequences with new rules, but in fact humans are becoming increasingly superfluous and a dumbed-down society with highly intelligent machines is threatening.

Full Text

Введение
В начале XVII века Фрэнсис Бэкон заложил основы современного эмпирического естествознания, выдвинув тезис о том, что «знание – это сила». Эта форма знания есть сила, потому что она служит технологиям и освоению природы. О том, насколько это верно, свидетельствует искусственный интеллект (ИИ, англ. Artificial Intelligence), который сегодня рассматривается 
в качестве отправной точки четвертой промышленной революции.
Ф. Бэкон, к сожалению, не дополняет свой весьма верный тезис тем фактом, что также имеет место злоупотребление властью и необходим контроль и ограничения в отношении власти технологий и науки. Его утопический роман о государстве «Новая Атлантида» (Nova Atlantis) явно показывает, что он не принимал во внимание данных проблем. 
В центре его вымышленного государства находится академия, в которой создаются удивительные изобретения, однако при этом проводятся эксперименты над животными, которые сегодня становятся предметом многочисленных споров. Подобно монастырю, этот утопический исследовательский центр является закрытой территорией, и мы не получаем возможности узнать, располагает ли население островного государства сведениями о том, что именно там происходит. Так же и нам никто не сказал, над чем работали компании OpenAI и Microsoft, когда изобретали программы ChatGPT и Bing, и никто не спросил нас, нужны ли нам вообще их результаты.
Между тем еще до основания OpenAI двое очень именитых ученых выразили обеспокоенность тем, что искусственный интеллект может вытеснить человека из мира, и мы также читали об этических опасениях некоторых разработчиков новых программ (Wikipedia 2024).  В настоящий момент несколько сотен экспертов подписали декларацию о том, что ИИ так же опасен, как пандемия или ядерная война (Center for AI Safety 2024). Тем не менее некоторые технокапиталисты из Кремниевой долины заявили, что безграничные и форсированные изобретения соответствуют расширяющейся Вселенной. В октябре 2023 года этот круг опубликовал «техно-оптимистический манифест», в котором его члены заявили: «мы верим в победу над природой» (Meckel, Steinacker 2014). Поскольку мы, люди, тоже являемся творением природы, вера эта весьма прискорбна.
Если вы спросите, почему этих акторов не контролируют и не сдерживают на государственном уровне, вы в конечном итоге обнаружите, что речь идет о глобальной политике. США рассматривают себя в качестве конкурирующей стороны по отношению к Китаю, поскольку в 2017 году Си Цзиньпин объявил о плане сделать свою страну ведущей державой в области ИИ на мировом рынке 
(Digichina 2017). ИИ может принести огромную пользу цивилизации, например, в области медицины, управления, борьбы с преступностью, устранения экологического ущерба и, прежде всего, в экономике. Каждое государство стремится к тому, чтобы его общество получило экономическую выгоду от ИИ. И хотя компьютеры еще не повысили продуктивность экономики, сейчас, тем не менее, создаются специальные кафедры по ИИ. В связи с тем, что материалом ChatGPT является информация, а не материальные объекты, его распространение в цифровую эпоху в любом случае едва ли можно предотвратить.
По мере роста научно-технической мощи увеличиваются не только возможности извлечь пользу, но возрастают и опасности. В отличие от мании прогресса технократов из Кремниевой долины, с одной стороны, и страха перед уничтожением человечества – с другой, в более современной литературе об ИИ утверждается, что человечество может достичь гораздо более высокого уровня развития при правильном использовании новых цифровых технологий, но при этом необходимо в кратчайшие сроки установить правила с целью контроля над властью ИИ и предотвращения злоупотребления властью (Suleyman, Bhaskar 2024).

Ход исследования
В эпоху абсолютизма король, как суверен государства, обладал всей полнотой власти, а граждане подчинялись его воле. Реакцией эпохи Просвещения стало требование разделения властей, которое наиболее полно обосновал Монтескье. Это была форма контроля и ограничения власти, поскольку исполнительная власть правительства была ограничена законодательной и судебной. Ограничение власти теперь требуется и в отношении ИИ. Ибо если позволить государству использовать все возможности этой технологии без ограничений, оно получит такую власть, что сможет осуществлять полный контроль над каждым гражданином, вплоть до контроля за его частной жизнью. Однако почти столь же ужасает ситуация, при которой власть корпораций не будет ограничена. Они уже пытаются отслеживать наши интересы и создавать «профили клиентов», то есть профили личности, когда мы ищем информацию в Интернете. Еще больше данных поступает из так называемых социальных сетей, которые могут использоваться не только в коммерческих целях, но и для идеологического влияния. 
Из-за возможности манипулирования сознанием и поведением новые изобретения представляют угрозу для демократии. Это относится и к ChatGPT, происхождение информации которого до сих пор не раскрывают, а ее точность не гарантируется компанией OpenAI. Система также, что доказано, распространяет ложные утверждения, которые были введены случайно или преднамеренно. Таким образом, она усиливает распространение так называемых фейковых новостей, которые уже широко циркулируют в интернете и оказывают влияние на некоторых пользователей. Именно поэтому для работы с этой программой разрабатываются этические правила, отдельная этика ИИ. Уже законы робототехники автора научной фантастики середины XX века Айзека Азимова были такой этикой (Asimov 1952). 
С этической точки зрения ввиду новой медиа-
власти возникает необходимость прежде всего в «прозрачности», то есть люди должны знать, кто какую информацию о них собирает и откуда берутся данные чат-ботов. Новые правила Европейского союза для чат-ботов также содержат требование прозрачности. Все производители чат-ботов должны раскрывать свои источники информации. Они также не должны распространять незаконный контент, поскольку необходимо учитывать предостережение о том, что, например, террористы могут легко получить информацию о самых эффективных ядах. У меня возникают сомнения в отношении того, будут ли крупные компании, ведущие международную деятельность, выполнять эти требования, рискуя при этом потерять большое количество пользователей. Я также не знаю, не смогли ли преступники уже заполучить желаемые знания через Интернет.
Искусственный интеллект являет собой вершину процесса рационализации современного общества, описанного Максом Вебером около 100 лет назад. Подобно тому, как наука стремится к рациональному пониманию всего сущего, все виды деятельности в этом обществе также подвергаются рациональному регулированию. Этот процесс включает в себя, прежде всего, автоматизацию, которая постепенно заменяет человеческий труд на машинный. ChatGPT был разработан и выведен на рынок одной из отраслей экономики, и эта программа может быть особенно полезна в сфере экономики, так как выполняет текстовые производственные задачи, которым часто присущ алгоритм повторения, что позволяет экономить рабочее время и затраты. Компании могут использовать ее, например, для рекламы, для консультирования клиентов, для договоров, для своих административных задач и так далее. Ее также можно использовать для исправления лингвистических ошибок в текстах. Статьи в некоторых журналах и даже целые книги и рецензии уже пишутся чат-ботом. 
Для человека это сопряжено с двойной опасностью: во-первых, он может стать объектом машинного контроля, а во-вторых, потерять свою работу и признание себя в качестве свободной, творческой личности.
Если кто-то с помощью этих данных раскрывает что-то о своей личности, то такие данные в нашей стране защищаются законом, и никто не вправе использовать их без согласия, они подлежат политике конфиденциальности и защите данных. Это относится, например, к информации о состоянии здоровья человека, а также к его идеологическим и политическим убеждениям, которые он случайно и непреднамеренно раскрыл. Речь идет о праве на неприкосновенность личности. Оно защищает частную и интимную сферу, в том числе и фотографии граждан, что не позволяет кому бы то ни было публиковать снимки частных лиц без их согласия. ChatGPT опасен и с этой точки зрения, поскольку вся введенная информация используется и распространяется системой. Однако, как я читал, есть возможность запретить системе в целом сохранять частные данные, для этого необходимо отключить историю чата в разделе «Настройки» – 
«Управление данными» (Hoeren 2023). Именно поэтому повсеместно запущен процесс установления правил использования программы и ознакомления с ними. 
В связи с риском нарушения прав личности Европейский союз поставил во главу угла запрет на электронное распознавание лиц и категорирование людей. Это наиболее рискованная область ИИ. Однако вряд ли удастся запретить компаниям собирать данные о соискателях и затем спрашивать у машины, какой человек лучше всего подойдет для определенной работы. В этом случае принятие решения будет передано машине. Также сомнительным представляется использование врачом ИИ для установление диагноза больного человека и предоставление машине права выносить вердикт о состоянии его здоровья и трудоспособности.
Тот факт, что интеллектуальные продукты, такие как тексты и изображения, теперь могут производиться исключительно машинным способом, приводит к еще большим трудностям. Здесь авторское право становится предметом вызова и оказывается под сомнением, поскольку ChatGPT постоянно дополняется и обучается благодаря огромным массивам информации, происхождение которой остаётся неизвестным. Если мы будем считать созданный машиной языковой продукт своим, как говорят, «украсив себя чужими перьями», то мы не только обманываем своих читателей, но и совершаем своего рода хищение. Ведь мы используем чужие формулировки и идеи и тем самым нарушаем авторское право. Для многих это право является важным основанием для принципиального отказа от чат-ботов.
В греко-римской античности авторское право еще не было известно. Однако для кражи интеллектуальной собственности использовался термин «плагиат», происходящий от латинского plagiarius - 
работорговец, похититель людей. Таким образом, выдавать чужие стихи за свои считалось аморальным уже в те времена. Впрочем, в Новое время авторское право не было введено одновременно с появлением книгопечатания. Только когда люди захотели признания своего индивидуального способа самовыражения и смогли зарабатывать деньги с помощью письменных произведений, моральное требование уважать интеллектуальную собственность так же, как и материальную, и не пытаться ее украсть стало правовым обязательством. Таким образом, современный мир характеризуется не только процессом рационализации, который зачастую вытесняет отдельного человека и делает его ненужным, но и процессом индивидуализации. Эти две тенденции могут вступить в конфликт, и это без особых затруднений происходит благодаря новым медиа и технологиям.
Возникнув в XVIII веке, авторское право с тех пор превратилось в широко разветвленную и очень сложную систему, обусловленную многообразием средств массовой информации и международными связями (Dommann 2014). В целом оно получило международное признание (как и знак copyright), но имеют место и свои национальные особенности. Сегодня, как правило, две противоборствующие стороны борются за правовые нормы в этой области. Одни стремятся к тому, чтобы интеллектуальные продукты, которые могут быть быстро распространены через Интернет, стали на бесплатной основе максимально доступны для многих пользователей, и выступают за смягчение этого права. Другие защищают авторов, которые с помощью своих произведений хотят получить признание или заработать деньги, и требуют, чтобы защита от кражи и неправомерного использования распространялась на интеллектуальную собственность так же, как и на материальную. Самые острые конфликты возникли в сфере поп-культуры. В конце концов, мораль, послужившая основанием для критического понятия «плагиат» еще в античности, является настолько самоочевидной и сегодня, что мы поражаемся тому, как много людей уже споткнулись об этот моральный порог при написании своих диссертаций. ChatGPT может быть ловушкой, попав в которую, человек, сам того не подозревая, нарушит авторские права.  
Из-за существования авторских прав компании OpenAI и Microsoft сейчас сами вовлечены в крупные судебные процессы. Эти компании обучали ChatGPT и Bing с помощью газеты «The New York Times» и большого количества другой литературы, то есть использовали тексты без разрешения. Теперь газета, союз американских писателей и многие авторы подали в суд на эти две компании за нарушение авторских прав, требуя возмещения ущерба в размере миллионов долларов. На этом фоне весьма неприятно читать, что немецкая газета «BILD» заключила следующее соглашение с OpenAI: вся газета может быть использована для обучения чат-ботов, а с помощью новой языковой технологии будет также создаваться краткое содержание статей. Легко понять интересы обеих сторон: OpenAI получила новое обширное поле для обучения своего чат-бота, а газета «BILD» расширяет сферу своего влияния в отношении своего подчас противоречивого взгляда (на события). Один лингвист в целом выступает против ChatGPT, поскольку он способствует распространению определенных способов выражения и мышления и тем самым формирует определенные предубеждения.
В настоящее время почти все ведомства ищут или разрабатывают правила работы с этой системой, прежде всего речь идет об обязательных правовых нормах. Однако юридические представления и решения явно не поспевают за научно-техническим прогрессом. В то время как все новые и новые изобретения определяют работу и поведение в современном обществе, это общество также охватывается все более густой и все более сложной сетью правовых систем. Традиционные обычаи, как и правовые традиции не в состоянии справиться с новыми вызовами.
Юристы сходятся во мнении, что даже если человек написал свой текст с помощью машины, юридически он является автором текста и несет ответственность за его содержание (Hoeren 2023, Fußnote 7). Если бы это было так, то, на мой взгляд, такой текст можно было бы использовать и для сдачи академических экзаменов, и для извлечения прибыли. Однако было бы странно, что в этом случае автор не имеет авторских прав. Поскольку, согласно нашему законодательству, произведение, охраняемое авторским правом, должно быть «личным интеллектуальным творением». В этом отношении, на мой взгляд, проблема еще не решена. Предложение о том, что тексты, создаваемые машиной, должны быть снабжены соответствующей маркировкой (символом), также представляется мне трудновыполнимым. Кто будет это делать, если нельзя даже указать адрес, как в случае с цитатами из Интернета? Однако если тексты чат-ботов будут помечаться специальным знаком, как это было предложено, то рано или поздно другая машина, несомненно, сможет удалить эту маркировку.
Сложности с авторским правом возникают прежде всего ввиду объединения человеческой и машинной деятельности. Подобные комбинации уже существуют. Я читал, что в таких произведениях авторским правом охраняется только творческая часть работы художника или писателя. Но кому это решать? На фотоконкурсе в 2022 году победил снимок, созданный с помощью искусственного интеллекта. Фотограф сообщил о том, как проходила его работа над созданием снимка, и отказался от приза (речь идет о фотографии Бориса Эльдагсена "Pseudomnesia: The Electrician"). По его словам, своей работой, сочетающей ИИ и фото, он лишь намеревался инициировать дискуссию о том, что сегодня можно считать искусством фотографии. Этот вопрос возник, однако, не только в результате появления новых программ ИИ, поскольку фотографии подвергались редактированию намного раньше.
Технические инновации часто приводили к исчезновению целых профессиональных отраслей. Изобретение механических ткацких станков в XIX веке лишило ткачей, производивших текстиль на дому, работы и заработка, поэтому они порой выражали свой протест, уничтожая станки. Теперь ChatGPT угрожает совершенно другим профессиям. Некоторые газетные издательства увольняют сотрудников, потому что их работу может выполнять машина. Поскольку искусственный 
интеллект может использоваться даже для создания произведений, которые раньше создавались только очень талантливыми, неординарными людьми – рассказов, стихов, киносценариев, картин, музыки и т. д., – представители творческих профессий видят в этом угрозу в отношении своих средств к существованию и также уже начали активно протестовать. Все новые произведения искусства теперь подозреваются в том, что они созданы с помощью искусственного интеллекта. Только когда актеры и музыканты представляют интерпретации старых произведений на сцене, они защищены от подозрений. 
Надежда на то, что виды искусства не погибнут, потому что люди все равно более креативны, чем машины, которые могут лишь перерабатывать то, что уже существует, не кажется мне убедительной. За свою историю искусство уже породило столько форм, что в распоряжении машин достаточно материала для создания того, что еще никто не видел, не слышал и не читал. Более того, широкая публика зачастую не приветствует то, что совершенно ново и непривычно. Вероятно, некоторые поп-песни уже были созданы машинами.
Также мы иногда слышим о появлении новых сфер деятельности и возможностей заработка. Например, сейчас ищут инженеров, которые смогут правильно обслуживать и опрашивать языковые машины. Но в то же время есть опасение, что в будущем такие задачи будут выполнять программы, так что машины будут управлять сами собой.
Все это указывает на серьезнейшую опасность: исчезновение индивидуального человека по причине господства машин. Эта опасность также представляет особую угрозу для школ и университетов, задача которых состоит в воспитании конкретных, индивидуальных людей. Именно поэтому ChatGPT и в этой области стал предметом серьезных разногласий. Все согласны лишь с тем, что программу нельзя игнорировать, а необходимо информировать о ее возможностях и опасностях, поскольку ИИ все в большей степени будет менять общество.
Там, где речь идет в основном о представлении фактов, которые никто не оспаривает и которые уже были опубликованы, машина может заменить и студента, и преподавателя. Первый может легко получить экзаменационную работу от ChatGPT, а второй – лекцию от ChatGPT. Это особенно справедливо по отношению к естественным наукам, а также к чисто историческим исследованиям. В науках о культуре, однако, машинные продукты могут стать предметом критики на уроках, что сейчас и происходит в некоторых школах.
То, что говорит команда профессоров о пользе ChatGPT для преподавания и исследований в университете, меня не убеждает. Любой университетский профессор, которому нужна машина для формулирования гипотез и организации учебных курсов или экзаменов, выбрал не ту профессию. Говорят, что ChatGPT может облегчить исследовательскую работу. Но это тоже представляется мне заблуждением. В то время как уже известные нам поисковые системы почти всегда предлагают несколько ответов с указанием источников, ChatGPT выдает только один ответ без указания его происхождения. Подчас ответы оказываются вольными измышлениями (выдумками).
Профессор кафедры преподавания математики написал, что сегодня простые арифметические действия можно было бы доверить компьютерам и сосредоточиться на более интересных математических задачах (Oldenburg 2023). Однако профессор по информатике и коммуникациям сообщает, что ChatGPT оказался неспособен умножить два четырезначных числа. Он призывает тренировать не только новые машины, но и человеческий разум (Cap 2023). Подобно тому, как при занятиях в фитнес-центре физические движения не выполняются мотором, должна тренироваться и умственная деятельность. Этот тезис кажется мне очень важным. Работу по обучению каждый должен выполнять сам, нельзя перепоручать ее машине. Если об этом будут забывать, то в результате мы получим высокоинтеллектуальные машины в полностью отупевшем обществе (Wolfangel 2017).

Заключение
Многие технические новшества способствовали возвращению к элементарным навыкам и старым изобретениям. Изобретение автомобилей и мотоциклов, казалось бы, превратило велосипед в ненужную вещь. Но поскольку двигатели загрязняют окружающую среду, а велосипеды полезны для здоровья, производство велосипедов в Европе выросло на 11,5 % в 2020/21 году. Если возникают разговоры о необходимости новых форм организации экзаменов в школах и университетах, то ChatGPT, вероятно, приведет к тому, что устные ответы станут более значимыми, нежели письменные работы. Платон был бы рад этому, поскольку в диалоге «Федр» он выражает свое скептическое отношение к письму и книгам: они препятствуют собственному, глубокому мышлению, ухудшают память и способствуют получению лишь поверхностных знаний (Platon). Никогда еще эта опасность не была так велика, как в случае с ChatGPT. Сейчас OpenAI пытается разработать «автономного персонального ассистента», который будет делать за человека всю работу и даже планировать отпуск.
В связи с тем, что без собственного мышления человек перестает быть человеком, а чат-боты лишь выдают готовые фразы, звучит практически единодушный призыв к развитию саморефлексии и способности критического отношения к себе. Упомянутый выше специалист в области дидактики в качестве «основной задачи» будущего преподавания видит «предоставление всестороннего философского образования, позволяющего принимать участие в рациональном обсуждении норм. При этом речь должна идти не только о моральных, но и о гносеологических нормах». Автор справедливо призывает к дискуссии, ведь компьютеры с легкостью выплевывают множество уже утвержденных норм, которые впоследствии оказываются лишь фактами и не имеют никакой значимости.
Помимо поощрения студентов к самостоятельному мышлению, на университетских экзаменах, возможно, будет сделан акцент на рукописных работах и, тем самым, на тех вещах, которые человек не может передать машине и с помощью которых он проявляет свою индивидуальность. Вместе с тем возникают опасения, что умение излагать собственные мысли в деталях больше не будет практиковаться в достаточной степени. Это пагубно скажется на наших языковых навыках и на нашем мышлении. Мы используем язык для того, чтобы упорядочить свой опыт. Книги и сочинения являются неотъемлемой частью нашей культуры. Мы благодарны Платону за то, что он, несмотря на критику письменности, оставил нам свою философию в письменном виде.
Настоящая дискуссия показывает, насколько акцентируется внимание на деятельности отдельного индивида по мере того, как она все больше делегируется машинам. В англосаксонских странах представители гуманитарных наук, к которым относятся и деятели искусства, всегда выступали против возрастающего доминирования естественных наук. Сегодня программы искусственного интеллекта доступны даже для удовлетворения эмоциональных потребностей. Теперь мы можем завести себе виртуального партнера, который машинным способом будет завораживать нас любовными стихами. Вот почему почти все участники дискуссии возвращаются к важности критического мышления, а иногда и к навыкам ручного труда, потому что починить сломанный унитаз сможет скорее сантехник, а не ИИ.

×

About the authors

Gunther Scholz

Ruhr University, Bochum, Germany

Author for correspondence.
Email: Gunter.Scholtz@rub.de
https://www.ruhr-uni-bochum.de/philosophy/i/index.html.de

Dr. phil. habil., Professor Emeritus

https://www.ruhr-uni-bochum.de/de

Germany, 34, Moskovskoe Shosse (St.), Samara, 443086, Russian Federation

References

  1. Wikipedia (2024), Open AI, [Online], available at: https://en.wikipedia.org/wiki/OpenAI (Accessed 08 May 2024).
  2. Center for AI Safety (2024), Statement on AI Risk, [Online], available at: https://www.safe.ai/statement-on-ai-risk (Accessed 08 May 2024).
  3. Meckel, M. and Steinacker, L. (2014), Alles überall auf einmal: Wie künstliche Intelligenz unsere Welt verändert und was wir dabei gewinnen können, Hamburg.
  4. Digichina (2017), China’s New Generation AI Development Plan, [Online], available at: https://digichina.stanford.edu/work/full-translation-chinas-new-generation-artificial-intelligence-development-plan-2017/ (Accessed 08 May 2024).
  5. Suleyman, M. and Bhaskar, M. (2024), The Coming Wave. Künstliche Intelligenz, Macht und das größte Dilemma des 21. Jahrhunderts, München, Germany.
  6. Asimov, I. (1952), Ich, der Robot, Düsseldorf, Germany.
  7. Hoeren, T. (2023), ChatGPT und das Recht. Eine juristische Einschätzung zur Anwendung von KI-Textgeneratoren an den Hochschulen, Forschung und Lehre, 30. Jg., 11/23, pp. 846–848.
  8. Dommann, M. (2014), Autoren und Apparate. Die Geschichte des Copyrights im Medienwandel, Frankfurt/Main, Germany.
  9. Oldenburg, R. (2023), Künstliche und natürliche Intelligenz. Zur Gestaltung einer zukünftigen Bildung, Forschung und Lehre, 30, Jg. 5/23, pp. 346–347.
  10. Cap, C.H. (2023), „Der neue Gott ist nackt!“ ChatGPT im Bildungswesen, Forschung und Lehre, 30, Jg. 5/23, pp. 344–345.
  11. Wolfangel, E. (2017), Wie weit liefern sich Menschen den Computern aus? [Online], Badische Zeitung, Available at: https://www.badische-zeitung.de/computer-medien-1/wie-weit-liefern-sich-menschen-den-computern-aus--133623684.html (Accessed 08 May 2024).
  12. Platon: Phaidros, 274e–275b.

Supplementary files

Supplementary Files
Action
1. JATS XML

Copyright (c) 2024 Scholz G.

Creative Commons License
This work is licensed under a Creative Commons Attribution 4.0 International License.

This website uses cookies

You consent to our cookies if you continue to use our website.

About Cookies