Site icon Granite of science

Способен ли искусственный интеллект заменить человека?

Аннотация

В современном мире люди обеспокоены возникновением искусственного интеллекта и боятся последствий, которые это за собой повлечет. Вытеснит ли искусственный интеллект человека, сделает ли вторичным видом? Уступит ли человек пальму первенства в таких областях, как: искусство, наука, политика? Станет ли человек, а вслед за ним и вся человеческая культура – никому не нужным мусором планеты Земля?

Проблема искусственного интеллекта в современном мире

Человечество давно занимается разработками искусственного интеллекта. Как известно, наша цивилизация в данный момент носит название информационного общества, которое, по сути своей, можно было назвать таковым именно в эпоху появления интернета. До этого вычислительные мощности ЭВМ были достаточно слабыми, а об уникальных алгоритмах, которые способны сами себя писать и обучаться – о них и речи не было вовсе.

В данный момент интернет опутал своей паутиной всю планету и, как следствие, внутри этого гиперпространства появились те пресловутые алгоритмы, которые способны к самообучению. Кроме того, необходимо еще заметить, что еще задолго до появления интернета научная фантастика показывала подобного рода машины, которые ничем не отличаются от людей, кроме своего превосходящего интеллекта и силы. Но тема о связи научной фантастики и научных открытий – это тема для другой, более обширной статьи.

Очевидно, что с появлением интернета, появились и новые страхи. И этим опасения подтверждались фактологически, поскольку любое открытие, любое изобретение имеет две стороны: положительную и отрицательную. Ярким примером может послужить атомная энергетика и атомное оружие. Понятное дело, что изобретение искусственного интеллекта пугает все человечество таким же образом, поскольку, с одной стороны, оно может работать во благо, а с другой стороны – причинять зло, а то и вовсе способно уничтожить все живое. Это ярко выражено во многих фильмах, начиная от киноэпопеи «Матрица», заканчивая другими художественными фильмами, как «Бегущий по лезвию».

Так вот, нам предстоит выяснить, способен ли искусственный интеллект «поработить человечество» или нет, способен ли он заменить поэтов, музыкантов, художников, способен ли заменить ученых и вообще просто превратить людей и всю человеческую культуру в ненужный никому мусор, а людей поставить в зависимость. Способна ли машина на подобные вещи?

Различие между сильным и слабым искусственным интеллектом.

Существует много как и оптимистов, так и скептиков, которые постулируют возможности искусственного интеллекта. Наша задача в данный момент не представляет собой необходимость занимать чью-либо сторону, поскольку это далеко от научного подхода. Мы попытаемся сравнить разные позиции и на основании этого сделать необходимые выводы. Однако данное исследование носит довольно скептический характер по поводу возможностей искусственного интеллекта и его способности вытеснить человека.

Существуют два разных типа искусственного интеллекта (в дальнейшем ИИ): сильный и слабый. Если выбросить все лишнее и объяснить эти два понятия, то сильный искусственный интеллект – это такой ИИ, который способен мыслить и осознавать себя, а слабый – это тот, который не способен. Например, это ИИ, который управляет различными платформами: YouTube, Facebook и т.д., и т.п. То есть, это просто самообучающиеся программы, которые выполняют какую-то специальную работу, но которые, тем не менее, не способны к какому-то субъективному опыту.

Само понятие сильного и слабого искусственного интеллекта было введено Джоном Сёрлем. Введение подобных понятий вызвало бурю обсуждений среди философов и ученых, которые занимались и занимаются проблемами когнитивистики. Здесь нам, чтобы более детально рассмотреть и разобрать проблему «машины с субъективным опытом», необходимо обратиться к гениальному математику и изобретателю, который впервые вывел эту проблематику из тени – к Алану Тьюрингу.

Алан Тьюринг – по сути, главный «хакер» ХХ века, величайший криптоаналитик, математик и инженер, который одним из первых затронул вопрос о том, может ли автомат мыслить. Для этого был создан так называемый тест Тьюринга, который наглядно демонстрирует всю сложность этого вопроса, и выводы, которые могут последовать из этого теста – весьма неоднозначные и вызывают море вопросов.

Тест Тьюринга.

Тест Тьюринга является одним из самых дискуссионных в науке. Сущность подобного теста заключается в следующем. Представьте себе три человека А, B, C, которые ведут между собой переписку и не могут видеть друг друга. С находится в изолированной комнате, поэтому не может видеть ни А, ни В. Задавая вопросы этим двум субъектам, С пытается определить, кто есть кто. И Если компьютер или машина, которая маскировалась под человека, не была обнаружена, то это означало, что она обладает разумом. Таким образом, машина прошла тест Тьюринга.

Можно ли в таком контексте определить, кто из них компьютер, а кто – человек? Все зависит от сложности вопроса. Если задавать обоим общие рациональные вопросы, как то какая погода сейчас? Какой цвет у неба? И т.д., и т.п., то будет очень трудно заметить, кто из них кто. Но если начать задавать сложные вопросы, как то почему иногда нет – это да, а да – иногда нет, то здесь у компьютера явно случатся проблемы и будет легко обнаружить, что это программа, а не человек. Хотя, конечно, многие люди тоже не ответят на этот вопрос, но по их глупости можно-таки будет обнаружить, что это именно человек. Таким образом тест Тьюринга может пройти ИИ, который может отвечать только на рациональные вопросы, а на иррациональные (назовем их так) – он ответить не может, поскольку в подобном вопросе слишком много неопределенности, а программа, работающая на бинарном коде, не может себе такого позволить. По крайней мере, в данный момент, поскольку программа не способна к смыслопониманию. Но об этом ниже.

Китайская комната

Китайская комната – это наиболее обсуждаемый мысленный эксперимент, который был опубликован Джоном Сёрлем в его статье «Minds, Brains and Programs» журнале «Behavioral and brain sciences». По сей день этот мысленный эксперимент является наиболее обсуждаемым в науке, поскольку цель данного эксперимента – опровергнуть гипотезу сильного искусственного интеллекта.

По сути, данный эксперимент имеет следующую логику. Представьте себе некоторую изолированную комнату, где находится некоторый человек, не обладающий знанием китайского языка и который не понимает ни одного иероглифа. При этом он имеет с собой определенные инструкции, помогающие ему каким-то образом компоновать данные символы. Ему нужно взять один иероглиф из одной корзины и положить в другую. Собственно, он должен делать это по команде. При этом сам этот человек не знает значений(смыслов) этих символов – отсюда «китайская» комната. Все, что нужно – это просто следовать инструкции.

На выходе находится некоторый «китаец», который передает ему сквозь щель записки с вопросами, на которые следует осознанно ответить. Следуя определенном алгоритму, субъект должен отвечать на эти вопросы. Например, на вопрос, какое расстояние от Земли до Юпитера, он должен ответить, что  778 547 200 километров. При этом данный субъект не знает о значении данных иероглифов, поэтому получается, что выполняя задачу – он получает непонятный ему вопрос, на который отвечает на непонятных ему словах. Получается, что он осуществляет команду по ответам, где для него скрыты как и вопросы, которые ему задают, так и ответы, которые он дает сам. Но наблюдатель, который коммуницирует с субъектом в китайской комнате – не подозревает о том, что тот не знает языка: не понимает ни вопросов, ни ответов.

Таким образом, этот мысленный эксперимент является продолжением теста Тьюринга. Согласно Сёрлю, даже если ИИ и может отвечать на все вопросы, которые ему поступают извне, он, все же, не способен понимать, почему и как он ответил на эти вопросы, поскольку у него нет понимания смысла, он не видит значений слов.

Обычно при переводах современные ИИ используют контекстуальный анализ на основании сопоставления контекстов, однако сам смысл слов он понимать не способен, поскольку не владеет семантической составляющей, которая является неотъемлемой частью естественного интеллекта и его умением создавать смыслы. Поэтому, согласно этому эксперименту, профессия переводчика сохранится, поскольку ИИ не способен достаточно точно переводить текст. Для примера можно взять кусок текста из произведения Венедикта Ерофеева «Москва – Петушки», чтобы понять этот простой факт:

«А через полчаса магазин откроется: водка там с девяти, правда, а красненького сразу дадут...

"Красненького?"

- Красненького, - нараспев повторили ангелы господни.

"Холодненького?"

- Холодненького, конечно...

О, как я стал взволнован!..».

Итак, из контекста никак не читается смысл слова «красненькое» и «холодненькое» и, поскольку ИИ не способен к такого рода раскрытию смысла, то ему не удастся точно перевести эти слова – для этого нужен профессиональный переводчик. ИИ будет бесконечно сопоставлять контексты, затратит огромные вычислительные мощности, но вряд ли он будет способен понять, что красненькое – это не цвет, а привокзальный портвейн, который представляется персонажу в качестве крови Христа.

Это сравнение уже чуть вышло за пределы китайской комнаты, о которой говорилось выше. Одним словом, если ИИ таки пройдет тест Тьюринга, то это ничего не значит, поскольку смысл слов ему остается непонятен. Для него это сплошной китайский язык, с которым можно справляться с помощью алгоритма, но «вникнуть в суть» – он не способен, поскольку у него отсутствует интенциональность, которая присуща естественному интеллекту. Он работает на сплошных синтаксических формальностях – о чем и говорит Сёрл. А поскольку у него нет интенциональности как смыслопонимающей и смыслообразующей функции сознания, то у него просто нет субъективного опыта. Это подводит нас к очередной интересной концепции, которую следует обсудить.

Философский зомби

Теперь нам необходимо обратиться к понятию философского зомби, или аргумента зомби. Этот мысленный эксперимент связан с такими персоналиями, как Сол Крипке и Девид Чалмерс. Сам этот аргумент направлен против физикализма, еще называемого в философии материалистическим монизмом, и который, по мнению Чалмерса и Крипке, может разрешиться именно в дуализме Рене Декарта. Как известно, Декарт делил все на res extensa (физическое) и res cogito (феноменальное).

Философский зомби – это по сути своей некоторый субъект, у которого отсутствует опыт «квалиа», или так называемый субъективный опыт. Зомби не способен чувствовать боль, ощущать… он ведет себя так, будто чувствует, но на самом деле у него отсутствует такая возможность. Собственно, у зомби отсутствует то, что принято называть феноменальное. Для него любое ощущение, на которое он реагирует – это сплошной «китайский язык», он понятия не имеет, почему у него был ответ на тот или иной стимул, поскольку де-факто он этого не ощущает, ибо у него отсутствует субъективный опыт. Поэтому, можно сказать, что презентация роботов, которых представляли на международных выставках, позиционируя их как таковых, которые способны реагировать не опасные разрушительные факторы – это сплошной фарс, который уводит нас далеко от сути.

Все это непосредственно связано и с разработками в области искусственного интеллекта, поскольку слабый ИИ представляет собой именно подобного рода зомби, так как у него нет субъективного опыта, для него все действия – это просто набор алгоритмов, набор «вопрос – ответ», «стимул – реакция»; тогда как сильный ИИ – это именно такой интеллект, у которого есть феноменальная сторона. Он способен понимать, почему на этот стимул была такая реакция. Кода такой «рефлексивный» опыт появится, то можно сказать, что у него есть субъективность. И вот вопрос о том, как создать подобного рода субъективный опыт?  На этот вопрос нет ответа.

Никто не знает.

Проблемы в понимании сущности искусственного интеллекта.

Итак, очевидно, что существует ряд невыясненных проблем в области искусственного интеллекта, которые до сих пор хорошо не изучены, однако остается очевидным следующий факт: современный уровень искусственного интеллекта не представляет собой никакой угрозы, поскольку из вышеприведенных примеров видно, что он имеет свои отличия от естественного интеллекта, который присущ органическим существам. По сути своей, сознание, способность к рефлексии и творчеству – это органическое явление. Для возникновения полноценного сознания необходим, как утверждает Сёрл, именно биохимический фактор, который никак нельзя смоделировать в условиях неорганической среды – на компьютерах, которые работают на электричестве.

Очень вероятно, что возможность к рефлексии заложена именно в том, что мы называем живое. До сих пор никто не может точно сказать, существует ли способность рефлексии у животных. Способно ли животное направить свою интенцию на себя же. Скорее всего, это вполне возможно, однако отсутствие сложной символической системы, похожей на человеческий язык, не позволяет животному «осознать» тот факт, что оно есть, поскольку, как утверждал Витгенштейн, мир человека органичен его языком. И естественный язык в этом плане представляет собой эволюционное преимущество именно человека, что отличает его от других языков, как то язык животных или формальный язык алгоритма.

Поэтому вопрос того, способен ли искусственный интеллект к разумной деятельности – это вопрос всецело сложный и на который нельзя дать точно однозначного ответа, поскольку до сих пор слабо изучен мозг, который является самой сложной системой из ныне известных во Вселенной. И до сих пор не ясно, что такое разумная деятельность, но понятно, что эволюция языка и мутация в генах, которая привела к его возникновению, создала все предпосылки для того, чтобы человек мог осознать факт своего бытия.

Как говорил Хайдеггер: «Язык – дом бытия». Это выражение можно интерпретировать на разный лад, но самым важным является факт того, что человек живет в языке, причем следует понимать язык шире, что естественный язык – как семантическую структуру, которая устроена как система отсылок, или гиперссылок. Однако, одного подобного фактора языка недостаточно для того, чтобы понять, что такое разум, разумная деятельность и способность к творчеству, будь то искусство или какое-либо научное творчество.

Но не учитывать фактор влияния языка на развитие естественного интеллекта – нельзя, поскольку очевидно, что подобное влияние имело место. И при попытке моделировать искусственный интеллект в его сильном варианте – нужно учитывать фактор естественного языка, точнее его избыточности. Здесь не идет речи о таком феномене сознания, как интенциональность. Оставим это. Дело в том, что любой искусственный интеллект работает в плоскости формального языка, который является бинарным и работает по алфавиту, состоящему из [1, 0]. Это его конечный алфавит. Поэтому само свойство формального языка – это его синтаксичность, строгая формальность и отсутствие семантической избыточности, которая присуща естественному языку. Для примера можно взять выражения «ну да», которое может значить и да, и нет, выражение «ну да, конечно», которое означает тоже и да, и нет – все лишь зависит от интонации. Конечно, искусственный интеллект мог бы запустить процедуру сравнения всех интонаций, однако он не застрахован от фактора иронии, когда утверждающей интонацией «ну да» – может быть выражено отрицание.

Очевидно, что в подобных неопределенных условиях современный искусственный интеллект просто неспособен функционировать. Пока никто точно не может понять, почему. Но факт остается фактом: для создания сильного искусственного интеллекта, необходимо исследовать для начала естественный интеллект, его разумность, способность к юмору, творчеству, иронии, избыточности смысла и способности осознавать свою конечность, свою жизнь и свое бытие.

И когда роботы научатся шутить, как фильме «Интерстеллар», когда они начнут замечать абсурдность происходящего, когда смогут переживать эмоции, боль, когда способны будут к рефлексивной деятельности и когда на ряд дурацких вопросов из теста Тьюринга, полных иронии и сарказма, они смогут ответить так, чтобы никто не заметил, что это что-то, отличное от человека, только тогда можно будет начать опасаться. Но тогда, конечно, уже будет поздно.

В нынешний век мы не имеем подобного рода неорганических существ. И я полон скептицизма, что в ближайшем будущем мы сможем найти подобных роботов, поскольку мы еще не разобрались в устройстве мозга и, очень вероятно, не разберемся никогда, потому что это самый закрытый черный ящик во вселенной и простым сканированием мы точно не поймем того, как это работает на самом деле. А без этого развитие сильного ИИ – пустое дело.

Мозгу, как известно, удается тратить на сложнейшие интеллектуальные операции минимум энергии, тогда как для подобных сложнейших операций компьютеру нужно энергии в сотни тысяч раз больше. И если усложнять алгоритмы без оптимизации энергетических затрат на их реализацию, то нам скоро не хватит и энергии Солнца для того, чтобы понять иронию.

Завершение.

Итак, подведем итог. Человечество уже создало ряд алгоритмов, которые управляют повседневной деятельностью человека. Человек и не замечает подобных факторов, однако они его окружают в основном в пространстве интернета. Развитие подобных технологий идет семимильными шагами, что порождает ряд опасений за будущее самого человечества. Но очевидным остается следующий факт: современный ИИ представлен только в его слабом виде и не способен на какое-либо разумное действие. Это пока. Все возможно в будущем, особенно с развитием таких вещей как квантовый компьютер с его вычислительными мощностями. Возможно, нам удастся приблизиться к пониманию того, что происходит.

Тем не менее, очевидным остается еще факт того, что без «органических» модулей ИИ будет чем-то вроде философского зомби, ибо естественной средой для разумной деятельности является именно органическое бытие. И само сознание, которое обычно редуцируют до уровня нейро-электрических процессов головного мозга – это совершенно иное, нежели подобное нагромождение единиц. Так же, как и фильм не является суммой всех кадров, музыка – суммой всех нот, муравьи, которые организуют свою деятельность – просто суммой всех муравьев. Это всегда нечто большее, что в теории систем носит название системного эффекта: целое всегда больше, чем сумма частей.

Пока естественный интеллект слабо изучен – сильному искусственному интеллекту не бывать. Очевидно, что у нас еще много времени, чтобы понять работу человеческого мозга. Но на данный момент совершенно не существует никакой опасности в том, что роботы, наделенные передовым интеллектом, вытеснят человека на второй план. В данном положении вещей это просто невозможно. Пока что мы движемся в рамках слабого ИИ, экологические отношения с которым у человека будут строится по принципу кооперации. Роботы и люди будут кооперировать. Как говорится: каждому свое.

Вряд ли способен искусственный интеллект вытеснить многие профессии, как профессия переводчика, журналиста, вряд ли он будет писать музыку лучше композиторов, поэзию – лучше поэтов, снимать кино – лучше режиссеров. Существует еще множество профессий и занятий, которые требуют «интенсивного субъективного опыта», которого не существует у искусственного интеллекта.

Однако, он-таки потеснит некоторые другие профессии. До сих пор точно не известно, какие именно, но то, что многие люди останутся без работы в ближайшем будущем – факт, который не вызывает сомнений даже у скептиков.

И тот страх, что человек станет никому не нужным вторичным существом, который проигрывает во всем какому-то сверх-разуму – об этом пока думать рано, поскольку нет никаких реальных предпосылок так думать. Очень возможно, что в будущем, но не сейчас. Хотя и это тоже вызывает сомнения.

Сколь угодно буди лихо – оно все равно тихо. Люди часто преувеличивают опасность тех или иных явлений, в виду своего мифологического мировосприятия. Это не значит, что некоторые опасения не имеют рационального зерна. Однако поскольку человек привык жить в некоторой сказке, то представления об апокалипсисе, о том, что человечество будет порабощено какой-то злой силой – его преследуют всю историю и, как это ни странно, подкрепляются различными историческими событиями. Отсюда и некоторые доводы в пользу того, что однажды появится некоторый «падший ангел», созданный богом, который принесет человечеству море бед. И искусственный интеллект сильного типа воплощает в себе эти затаенные мифические страхи человека. До этого этот страх появлялся не один раз в мировой литературе в виде Франкенштейна и даже в алхимии в виде гомункула.

Но, все же, многие проблемы люди преувеличивают в виду избыточности своего воображения, которое так же избыточно, как и язык. Но не будь этого – не было бы и того, что мы называем творчеством. Поэтому подобные страхи будут преследовать человечество всю его историю и будут реализовываться во все новых и новых явлениях, на которые будет спроецирован этот внутренний импульс. И задача научного подхода – продемонстрировать людям, что подобные проблемы вряд ли возможны, хотя, конечно, современная наука подливает масла в огонь, пугая людей черными дырам и прочими n-мерными пространствами, в которых мы живем. Наука должна быть занята делом и пусть оставит эти пустые спекуляции кому-то другому. Главная же ее задача в нынешний век – это приносить пользу, не вдаваясь в спекуляции.

Список литературы:

  1. Васильев В. В. «Трудная проблема сознания». М.: «Прогресс-Традиция», 2009
  2. Статья Дж. Оппи (G. Oppy) и Д. Дави (D. Dowe) о тесте Тьюринга (англ.) из Стэнфордской Философской Энциклопедии
  3. Тьюринг А. М. Вычислительные машины и разум. // В сб.: Хофштадер Д., Деннет Д. Глаз разума. — Самара: Бахрах-М, 2003. — С. 47-59
  4. Нагуманова С. Ф. Достаточен ли «аргумент мыслимости» для опровержения материалистического понимания сознания? // «Проблема сознания в философии и науке». М.: «Канон +», 2009. С. 133—152.
  5. Searle, J. Minds, brains, and programs : [англ.] // Behavioral and brain sciences. — 1980. — Т. 3, № 3 (September). — P. 417-424.
Exit mobile version