Новый Microsoft Bing иногда искажает найденную информацию

Новый Microsoft Bing иногда искажает найденную информацию

Новый Microsoft Bing иногда искажает найденную информацию

Поисковые системы находятся на новом витке своего развития с началом интеграции в них искусственного интеллекта. Теперь вам не нужно будет просматривать кучу сайтов для поиска необходимой информации — она будет выдаваться вам короткими (или не очень) сообщениями, которые будет генерировать ИИ. Однако здесь возникает вопрос: насколько надежна такая система?

Вчера Microsoft анонсировала свой обновленный поисковик Bing со встроенной системой ChatGPT, что должно значительно улучшить пользовательский опыт. И хотя Microsoft приняла много мер предосторожности, чтобы не повторить ситуацию с Tay (чат-ботом в Twitter, который стал расистом и женоненавистником), все же компания предупреждает, что некоторые результаты поиска Bing могут быть плохими. Вот, что пишет компания в ответах на распространенные вопросы о Bing:

«Bing старается, чтобы ответы были интересными и правдивыми, но, учитывая, что это ранний предварительный просмотр, он все еще может показывать неожиданные или неточные результаты на основе короткого веб-содержимого, поэтому, пожалуйста, будьте благоразумны. Иногда Bing искажает найденную информацию, и вы можете видеть ответы, которые звучат убедительно, но являются неполными, неточными или неуместными. Используйте собственное суждение и тщательно проверяйте факты, прежде чем принимать решения или действовать на основе ответов Bing.».

И эти «погрешности» легко обнаружить: автор издания The Verge спросил в Bing, что Microsoft показала сегодня, и получил ответ, что она показала новую поисковую систему Bing с ChatGPT, что является правдой, а также добавил, что Microsoft продемонстрировала возможности поисковой системы для «пародий на знаменитости», чего конечно не было.

Источник: The Verge