Парадокс Ферми звучит как вопрос: если в нашей галактике существует множество развитых цивилизаций, то почему мы не наблюдаем никаких следов разумной внеземной жизни?
Попыток решит парадокс Ферми было множество. В 1996 году британским экономистом и футурологом Робином Д. Хэнсоном была предложена гипотеза «Великого фильтра» — это гипотетическое событие или ситуация, которая не позволяет разумной жизни стать межпланетной и бороздить просторы Вселенной; и даже может привести к гибели цивилизации. Таким событием может быть, например: ядерная война, падение метеорита, взрыв сверхновой, глобальные климатические изменения, эпидемии и т.д.
А как насчет стремительного развития искусственного интеллекта?
В новой статье Майкл Гарретт с факультета физики и астрономии Манчестерского университета (Великобритания) описывает идею о том, что искусственный интеллект становится искусственным сверхинтеллектом (ИСИ) и что ИСИ — это Великий фильтр. Пишет Universe Today.
Согласно гипотезе Великого фильтра, мы не встречаем следов внеземных цивилизаций потому, что некий неизвестный, но радикальный фактор не позволяет им развиться в достаточной степени, чтобы выйти в космос и начать колонизировать соседние миры. Не имея запасной планеты в качестве дополнительного варианта, цивилизации если не погибают, то оказываются запертыми в состоянии стагнации. В нашем случае таким Великим фильтром может стать универсальный ИИ, считает Майкл Гаррет.
Искусственный интеллект основательно меняет наш мир. Он помогает ученым разобраться в огромных массивах данных и выявить финансовое мошенничество; он водит наши автомобили, создает изображения, фильмы и музыку, а чат-боты заменяют экспертов и психологов. И это только начало.
«Искусственный интеллект, похоже, готов ликвидировать рабочие места для миллионов людей, а в сочетании с робототехникой трансформация кажется практически безграничной. Это довольно очевидная проблема. Но есть более глубокие и систематические проблемы. Кто пишет алгоритмы? Будет ли ИИ каким-то образом дискриминировать? Почти наверняка. Подрывают ли конкурирующие алгоритмы могущественные демократические общества? Останутся ли открытые общества открытыми? Начнёт ли ИСИ принимать за нас решения, и кто будет нести за это ответственность? Это расширяющееся дерево ветвящихся вопросов не имеет конца»,— пишет Майкл Гаррет.
Если ИИ приобретет сверхчеловеческие возможности, то человек окажется не в состоянии им управлять. Кто знает, как он станет относиться к человечеству, и какие решения захочет принять. Возможно, как опасался Стивен Хокинг, он захочет полностью заменить людей, стать новой и единственной формой жизни на Земле.
«Я боюсь, что ИИ может полностью заменить людей. Если люди создают компьютерные вирусы, кто-то создаст ИИ, который совершенствует и воспроизводит сам себя. Это будет новая форма жизни, которая превосходит людей», — сказал Хокинг журналу Wired в 2017 году. Как только ИИ сможет превзойти людей, он станет ИСИ.
Как пишет Гаррет, тревога по поводу искусственного сверхинтеллекта, который, в конце концов, окажется неуправляемым, — серьезная проблема, и предотвращение этого риска станет в ближайшие годы более важной задачей для лидеров отрасли.
По мнению ученого, проблема усугубляется тем, что правительства не готовы к столь стремительному развитию ИИ. Ничего подобного универсальному ИИ прежде не существовало на нашей планете. И, возвращаясь к парадоксу Ферми, если перед нами возникла такая проблема, вероятно, она возникла и перед другими разумными существами, которые разработали ИИ.
Однако, по расчетам Гарретта, если мы успеем достичь межпланетного состояния, шансы человечества на выживание резко возрастут. Биологические виды, обитающие на нескольких планетах, могли бы воспользоваться преимуществом различного опыта, чтобы разнообразить свои стратегии выживания и избежать гибели или стагнации всей цивилизации.
Беда в том, что разработки ИИ движутся куда более быстрыми темпами, чем наши попытки колонизировать другие планеты. Биологическая природа людей ограничивает возможности путешествия по космосу, тогда как у ИИ таких проблем нет. Пока еще не все потеряно, следует направить все усилия на реализацию лунных и марсианских программ, считает Гаррет.
_____________________________________________________
✒️Подписывайтесь на наш Telegram-канал и смотрите видео
на канале в YouTube
📩Прислать статью [email protected]
📩У нас есть страница на Facebook и Вконтакте
📩Журнал «Гранит Науки» в Тeletype
✒️Читайте нас на Яндекс Дзен
Больше на Granite of science
Subscribe to get the latest posts sent to your email.
Мысль на тему “Новое решение парадокса Ферми – искусственный сверхинтеллект”