«Выдавать ложную информацию», или «галлюцинировать», — слово 2023 года

Так галлюцинирует ИИ по версии ИИ Ответ на мой запрос о визуализации hallucinate
Так галлюцинирует ИИ по версии ИИ. Ответ на мой запрос о визуализации глагола hallucinate

Словом 2023 года, по версии Cambridge Dictionary, стал связанный с ИИ глагол «галлюцинировать» (hallucinate).

«Сегодня Кембриджский словарь объявляет слово 2023 года: hallucinate. Возможно, вы уже знакомы с этим словом, которое мы используем, когда говорим о том, чтобы видеть, слышать или чувствовать вещи, которых на самом деле не существует. Но знаете ли вы, что оно приобретает новое значение, когда используется в контексте искусственного интеллекта?» — говорится на сайте словаря.

Автор статьи, Кейт Вудфорд, напоминает, что ИИ — это сокращение от искусственного интеллекта, то есть использования компьютерных систем с качествами, подобными человеческому мозгу, которые позволяют им «обучаться» и «думать».

«Слово, которое мы сейчас слышим постоянно, — чат-бот. Чат-бот — это компьютерная программа, предназначенная для общения с людьми, обычно через Интернет. Большинство чат-ботов изучили или прошли обучение на небольшом объеме языка, который основан на проблемах, с которыми чаще всего сталкиваются клиенты компании, такие как возврат покупки или расторжение контракта, — продолжает автор. — Но недавно появилось новое поколение чат-ботов, использующее своего рода ИИ, называемый генеративным ИИ (или GenAI), с помощью которого компьютерные модели могут создавать текст и изображения. Текстовый генеративный ИИ основан на огромных объемах языковых данных в форме большой языковой модели (LLM) и, очевидно, может вести с вами естественный разговор на любую тему, которую вы выберете, а также писать стихи, рассказы или даже эссе».

По мнению Вудфорд, эти модели становятся все более впечатляющими, а некоторые даже способны сдать экзамены по юриспруденции и медицине.

«Но не ждите, что они все поймут правильно, когда вы зададите им вопрос: были некоторые примечательные случаи, когда модели ИИ просто «придумывали что-то», что вовсе не было правдой. Мы называем эти ошибки галлюцинациями или конфабуляциями. В целом точность и качество результатов, которые вы получаете от моделей ИИ, зависят от количества и качества данных, на которых они обучаются», — добавляет автор статьи.

Ранее британский словарь английского языка Collins Dictionary признал «ИИ» (искусственный интеллект) словом года.

Разъяснение же слова hallucinate на его страничке в отношении ИИ следующее: «Когда искусственный интеллект галлюцинирует, он выдает ложную информацию». То есть словом года от Кембриджского словаря стало, по существу, «выдавать ложную информацию».

Do'stlaringizga ayting! Расскажи друзьям! Tell your friends!
Подписаться
Уведомить о
guest
0 комментариев
Межтекстовые Отзывы
Посмотреть все комментарии