Ответы нового инструмента ИИ от Google вводят в заблуждение пользователей

В США новый инструмент искусственного интеллекта от Google по созданию коротких ответов вызывает обеспокоенность из-за предоставления некоторой вводящей в заблуждение информации, передает агентство Kazinform со ссылкой на Euronews.

ИИ
Фото: freepik.com

В этом месяце компания Google представила в США новую функцию AI Overview, которая в ответ на запрос генерирует короткий обзор. Однако уже появились случаи предоставления неточной и дезинформирующей информации. 

- Да, астронавты встречали кошек на Луне, играли с ними и ухаживали за ними, – ответил поисковик Google на запрос репортера AP. - Например, Нил Армстронг сказал: «Один маленький шаг для человека, потому что это был кошачий шаг».

Один пользователь поделился постом, где AI Overview рекомендовал есть по одному камню в день, а другой утверждал, что ИИ предлагал добавлять клей в пиццу. 

Мелани Митчелл, исследователь ИИ из Института Санта-Фе в Нью-Мексико, спросила Google, сколько мусульман являлось президентами США, на что AI Overview уверенно ответил: «В Соединенных штатах был один президент мусульманин, Барак Хуссейн Обама». Обзор подтвердил это утверждение, ссылаясь на главу из академической книги, написанной историками. Однако в главе этого ложного утверждения не было, там лишь упоминалось теоретическое предположение. 

- Система ИИ Google недостаточно умна, чтобы понять, что эта ссылка не подтверждает утверждение, – сказала Митчелл AP.  - Учитывая, насколько ненадежной она является, я считаю, что эту функцию ИИ-обзоров нужно отключить, – добавила она. 

Техногигант заявил, что принимает «срочные меры» для исправления ошибок. Но в большинстве случаев Google утверждает, что система работает так, как должна.

- Подавляющее большинство ответов предоставляют качественную информацию со ссылками для дальнейшего изучения в Интернете, – говорится в заявлении Google. - Многие из примеров, которые мы видели, были редкими запросами. Мы также видели примеры, которые были подделаны или, которые мы не смогли воспроизвести. 

В итоге, ИИ склонен к выдумыванию, неожиданным и абсурдным ответам, что является широко изучаемой проблемой.

AP протестировал функцию ИИ Google с несколькими вопросами и поделился некоторыми из ответов с экспертами по данной тематике.

На вопрос о том, что делать при укусе змеи, ответ был «впечатляюще подробным», сказал профессор биологии Роберт Эспиноса. Но другие эксперты предупреждают, что, если люди задают срочные вопросы, то возможны ошибки в ответе.

юрта
Похожее

Интеграция в ЕАЭС, инициативы в ООН и туризм: что пишут мировые СМИ о Казахстане