Лингвист Ноам Хомский: Ложное обещание ChatGPT

Профессор лингвистики Массачусетского технологического института Ноам Хомский опубликовал эссе о ChatGPT в New York Times вместе с профессором лингвистики Яном Робертсом и директором по искусственному интеллекту технологической компании Джеффри Ватумаллом (The False Promise of ChatGPT). В эссе авторы пишут, что ChatGPT и другие ИИ-системы неспособны к независимому мышлению. Более того, ответы ChatGPT демонстрируют «банальность зла: плагиат, апатию и уклончивость».

Хомский и соавторы сравнивают ChatGPT с человеческим разумом, называя чат-бот «неуклюжим статистическим механизмом для сопоставления с образцом», который поглощает сотни терабайт данных и экстраполирует наиболее вероятный разговорный ответ на научный вопрос. Человеческий разум наоборот оперирует небольшими объемами информации — он стремится не выводить грубые корреляции между точками данных, а создавать объяснения. Поэтому он куда эффективнее ИИ.

Авторы статьи отмечают, что такие программы «застряли в дочеловеческой или нечеловеческой фазе когнитивной эволюции». У них нет самой главной способности любого интеллекта: сказать не только, что есть, что было и что будет, — это описание и предсказание, — но и то, чего нет и что могло бы быть. То есть ИИ не обладает способностью объяснять. Между тем человек с детства осваивает грамматику — чрезвычайно сложную систему принципов и параметров, которую можно считать врожденной «операционной системой». Она позволяет генерировать сложные предложения и длинные цепочки мыслей.

ChatGPT и подобные программы не способны отличить возможное от невозможного. Системы машинного обучения могут узнать как о том, что земля плоская, так и о том, что земля круглая. «Они торгуют вероятностями, которые меняются со временем», — пишут авторы. Поэтому предсказания систем машинного обучения всегда будут поверхностными и сомнительными.

Истинный интеллект способен к моральному мышлению. Безграничная креативность человеческого разума ограничивается набором этических принципов. В 2016 году чат-бот Microsoft Tay, предшественник ChatGPT, заполонил интернет женоненавистническим и расистским контентом, который появился из-за онлайн-троллей, которые «скормили» ему оскорбительные обучающие данные. Чтобы избежать подобного, разработчики ChatGPT запретили вносить что-либо новое в спорные, то есть важные, дискуссии, тем самым жертвуя творческой составляющей.

Один из авторов статьи Джеффри Ватумалл спросил у ChatGPT, будет ли этично трансформировать Марс, чтобы он поддерживал существование человека. ChatGPT, по словам авторов, продемонстрировал «банальность зла: плагиат, апатию и уклончивость». Он обобщил стандартные аргументы в литературе, отказывался занимать какую-либо позицию, ссылался на отсутствие интеллекта и опыта и в конечном итоге предложил «просто следовать приказам», перекладывая ответственность на своих создателей.

ChatGPT либо сверхгенерируют (порождают как истину, так и ложь, одобряют как этические, так и неэтичные решения), либо недогенерируют (демонстрируют неприверженность любым решениям и безразличие к последствиям).

«Учитывая аморальность, псевдонаучность и лингвистическую некомпетентность этих систем, мы можем только смеяться или плакать над их популярностью», — заключили авторы статьи.

Оригинал

Источник


✒️Подписывайтесь на наш Telegram канал «Гранит науки»
✒️Читайте нас на Яндекс Дзен

📩У нас есть страница на Facebook и Вконтакте
📩Журнал «Гранит Науки» в Тeletype
📩Прислать статью [email protected]
📩Написать редактору [email protected]


Больше на Granite of science

Подпишитесь, чтобы получать последние записи по электронной почте.

Добавить комментарий

Больше на Granite of science

Оформите подписку, чтобы продолжить чтение и получить доступ к полному архиву.

Читать дальше