Приглашения к сотрудничеству на форуме этого сайта.

«Выдавать ложную информацию», или «галлюцинировать», — слово 2023 года

Так галлюцинирует ИИ по версии ИИ Ответ на мой запрос о визуализации hallucinate
Так галлюцинирует ИИ по версии ИИ. Ответ на мой запрос о визуализации глагола hallucinate

Словом 2023 года, по версии Cambridge Dictionary, стал связанный с ИИ глагол «галлюцинировать» (hallucinate).

«Сегодня Кембриджский словарь объявляет слово 2023 года: hallucinate. Возможно, вы уже знакомы с этим словом, которое мы используем, когда говорим о том, чтобы видеть, слышать или чувствовать вещи, которых на самом деле не существует. Но знаете ли вы, что оно приобретает новое значение, когда используется в контексте искусственного интеллекта?» — говорится на сайте словаря.

Автор статьи, Кейт Вудфорд, напоминает, что ИИ — это сокращение от искусственного интеллекта, то есть использования компьютерных систем с качествами, подобными человеческому мозгу, которые позволяют им «обучаться» и «думать».

«Слово, которое мы сейчас слышим постоянно, — чат-бот. Чат-бот — это компьютерная программа, предназначенная для общения с людьми, обычно через Интернет. Большинство чат-ботов изучили или прошли обучение на небольшом объеме языка, который основан на проблемах, с которыми чаще всего сталкиваются клиенты компании, такие как возврат покупки или расторжение контракта, — продолжает автор. — Но недавно появилось новое поколение чат-ботов, использующее своего рода ИИ, называемый генеративным ИИ (или GenAI), с помощью которого компьютерные модели могут создавать текст и изображения. Текстовый генеративный ИИ основан на огромных объемах языковых данных в форме большой языковой модели (LLM) и, очевидно, может вести с вами естественный разговор на любую тему, которую вы выберете, а также писать стихи, рассказы или даже эссе».

По мнению Вудфорд, эти модели становятся все более впечатляющими, а некоторые даже способны сдать экзамены по юриспруденции и медицине.

«Но не ждите, что они все поймут правильно, когда вы зададите им вопрос: были некоторые примечательные случаи, когда модели ИИ просто «придумывали что-то», что вовсе не было правдой. Мы называем эти ошибки галлюцинациями или конфабуляциями. В целом точность и качество результатов, которые вы получаете от моделей ИИ, зависят от количества и качества данных, на которых они обучаются», — добавляет автор статьи.

Ранее британский словарь английского языка Collins Dictionary признал «ИИ» (искусственный интеллект) словом года.

Разъяснение же слова hallucinate на его страничке в отношении ИИ следующее: «Когда искусственный интеллект галлюцинирует, он выдает ложную информацию». То есть словом года от Кембриджского словаря стало, по существу, «выдавать ложную информацию».

Do'stlaringizga ayting! Расскажи друзьям! Tell your friends!

Выбрали? Намного больше вариантов выгодного сотрудничества с моим сайтом по ссылке здесь или сразу звоните на +998946524576 или пишите kozlovayepuz@gmail.com.

Подписаться
Уведомить о
guest
0 комментариев
Новые
Старые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии