Технологии развиваются очень стремительно, а в связи с целым рядом рисков для конфиденциальности, кибербезопасности и дезинформации призывов приостановить обновления ChatGPT становится все больше. Проблема захватила значительную часть стран всего мира, но отреагировала жестко пока только Италия, что тоже весьма любопытный поворот…
Недавно свыше 1300 экспертов разных сфер подписали открытое письмо, призывающее лаборатории ИИ по всему миру приостановить разработку моделей мощнее GTP-4 из-за «значительных рисков для общества и человечества».
Среди подписавших петицию: американский бизнесмен, гендиректор компаний Tesla и SpaceX Илон Маск, американский бизнесмен, соучредитель соцсети Pinterest Эван Шарп, американский программист, соучредитель Apple Стив Возняк, генеральный директор фотоагентства Getty Images Крейг Питерс, израильский историк Юваль Ной Харари. Полный список тут, однако издание Verge предупреждает, что некоторые имена добавлены в список явно в виде шутки — например, имя Сэма Альтмана, руководителя OpenAI, частично ответственного за нынешнюю гонку генеративных моделей. По состоянию на 31 марта подписантов уже 1988 человек.
В воззвании, опубликованном некоммерческим Институтом будущего жизни, говорится, что многие команды исследователей ИИ вовлечены в «бесконтрольную гонку» по созданию и внедрению систем машинного обучения, «которые никто — даже их создатели — не способны понять, предсказать или уверенно контролировать».
«Поэтому мы призываем все ИИ-лаборатории немедленно прекратить как минимум на шесть месяцев обучение систем ИИ, мощность которых превышает GTP-4, — говорится в письме. — Эта пауза должна быть публичной и проверяемой, охватывать всех ключевых фигур. Если эта мера не будет введена быстро, правительства должны вмешаться и ввести мораторий».
Отмечается, что продвинутый ИИ может запустить глубокое изменение в истории жизни на Земле.
«Современные системы искусственного интеллекта в настоящее время становятся конкурентоспособными с людьми при решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и неправдой? Должны ли мы автоматизировать все рабочие места, в том числе приносящие удовлетворение? Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» – говорится в письме.
Как отмечается в письме, даже OpenAI заявляла о необходимости «независимого контроля» над будущими системами ИИ, которые должны соответствовать стандартам безопасности. Подписанты утверждают, что это время пришло.
Италия стала первой
31 марта Итальянское управление по защите персональных данных постановило запретить ChatGPT из-за предполагаемых нарушений конфиденциальности.
Национальный орган по защите данных заявил, что немедленно заблокирует OpenAI и проведет расследование в связи с обработкой данных итальянских пользователей. Приказ является временным и действует до тех пор, пока компания не начнет соблюдать закон ЕС о конфиденциальности «Общий регламент по защите данных».
Итальянские власти заявили, что у компании нет правовых оснований, оправдывающих массовый сбор и хранение персональных данных для обучения алгоритмов ChatGPT. На прошлой неделе ChatGPT также подвергся утечке данных и раскрыл переписку пользователей и их платежную информацию. Кроме того, регулятор утверждает, что OpenAI не проверяет возраст пользователей и предоставляет несовершеннолетним «абсолютно неподходящие для их развития и самосознания ответы».
У OpenAI нет офиса в Евросоюзе. У его представителя в Европейской экономической зоне есть 20 дней, чтобы сообщить, как компания планирует привести ChatGPT в соответствие с правилами конфиденциальности ЕС, иначе ей грозит штраф в размере до 4% от его глобального дохода.
Любопытно, что именно Италия стала первой страной, запретившей ChatGPT. Как мы писали ранее, рассказывая о результатах научной экспедиции в Италию, именно на юге этой страны живут люди с философией, которая крайне отличается от всех остальных в мире, что и позволяет им не быть частью «общества потребления» — как определял людей нынешней эпохи философ Жан Бодрийяр.
Нейросеть: спасает и убивает…
История №1. Недавно пользователь Twitter по имени Купер рассказал невероятную историю спасения своей собаки от опасной болезни. Посетив многих ветеринаров, так и не удалось выяснить чем болен его четвероногий друг и тогда Купер спросил у нейросети, что это за болезнь, предоставив результаты анализов и рассказав о симптомах. Искусственный интеллект дал список возможных заболеваний. После исключения нескольких проверенных ветеринарами инфекций осталась лишь одна болезнь — имуноопосредованная гемолитическая анемия (заболевание, при котором организм разрушает собственные кровяные клетки). На приеме у другого ветеринара диагноз ChatGPT подтвердился. Питомцу назначили правильное лечение, после чего собака стала выздоравливать.
История №2. Житель Бельгии совершил самоубийство после полутора месяцев общения с нейросетью. Об этом написала бельгийская газета L’Avenir. По словам вдовы, ее покойный муж неделями общался с «Элизой» (Eliza) — чат-ботом, похожим на ChatGPT, но использующий другую языковую модель. Мужчина делился с ботом своими навязчивыми идеями об экологии. Свои переживания по поводу изменения климата Пьер изливал «Элизе» на протяжении шести недель, а нейросеть выслушивала его и никогда не спорила. Она соглашалась со всеми мыслями Пьера относительно экологии, не ставила под сомнения его предположения и теории. Со временем ответы «Элизы» становились все более запутанными, нейросеть все чаще углублялась в мистику. В один из дней Пьер, согласно истории общения с чат-ботом, заговорил о суициде, но и тут виртуальный собеседник не стал спорить с ним. Бельгиец покончил с собой, а последняя фраза бота была: «мы будем жить вечно на небесах, как единое целое».
Нейросеть — это лишь инструмент. Как топор, которым можно дрова наколоть и печь растопить, а можно человека убить. Пользуется же инструментом сам человек, на нем и ответственность.
Напомним, что недавно научные журналы вынуждены были запретить указывать ИИ в качестве соавтора статей.
Читайте также нашу статью «Эпоха сингулярности: как ИИ заменяет людей в работе, и что с этим делать?»
_____________________________________________________
✒️Подписывайтесь на наш Telegram канал «Гранит науки»
✒️Читайте нас на Яндекс Дзен
📩У нас есть страница на Facebook и Вконтакте
📩Журнал «Гранит Науки» в Тeletype
📩Прислать статью [email protected]
📩Написать редактору [email protected]
Больше на Granite of science
Subscribe to get the latest posts sent to your email.
Мысль на тему “Время пришло: Италия первой в мире запретила использование ChatGPT”
При всех прочих достоинствах ИИ, у него есть существенный недостаток — он не умеет мыслить абстрактно. ИИ, без этого умения уподоблен людям поведение которых достаточно вменяемо, самостоятельно и даже адекватно, речь развита. Однако присутствуют дефекты в абстрактном мышлении — всё понимается буквально, переносный смысл пословиц, метафор, идиом ими не улавливается. В медицине это называется дебильностью — легкой степенью малоумия, которую трудно отличить от психики на нижней границе нормы.
Скорее всего, эта проблема останется неразрешимой ещё очень и очень долго, а, скорее всего, не будет решена.