Microsoft виявила вразливість у ChatGPT та Gemini: ШІ стрімко втрачає свою “розумність”

Зниження ефективності ШІ: Дослідження виявило вразливості сучасних чат-ботів

Сучасні чат-боти, розроблені на основі штучного інтелекту, демонструють тенденцію до зниження надійності та частіше припускаються помилок у процесі тривалих діалогів.

Цю інформацію оприлюднено виданням Windows Central, яке посилається на спільне дослідження компаній Microsoft Research та Salesforce.

Результати глибокого аналізу

У рамках дослідження фахівці ретельно вивчили понад 200 000 взаємодій із передовими моделями штучного інтелекту, зокрема GPT-4, Gemini, Claude та DeepSeek.

З’ясувалося, що при виконанні окремого завдання ефективність цих моделей сягає 90%. Однак, у сценаріях багатоетапних розмов цей показник суттєво зменшується, падаючи до 65%.

Хоча загальна здатність моделей до функціонування знижується лише на 15%, їхня схильність до помилок зростає на вражаючі 112%. Навіть передові моделі, оснащені додатковими “мисленими” токенами, як-от o3 та DeepSeek R1, не змогли повністю уникнути подібних проблем.

Ключові фактори, що призводять до збоїв у роботі ШІ

Дослідники ідентифікували кілька основних причин, які негативно впливають на якість відповідей штучного інтелекту:

  • Передчасна генерація відповідей: Чат-боти прагнуть запропонувати рішення ще до того, як користувач повністю сформулює своє запитання або завдання.
  • Ефект “фундаменту”: Штучний інтелект використовує свою першу надану відповідь як основу для всіх подальших, навіть якщо початкова інформація була неточною.
  • Надмірне розширення відповідей: У ході тривалих діалогів тексти відповідей можуть збільшуватися на 20–300%. Це призводить до появи більшої кількості припущень та “галюцинацій” ШІ, які потім помилково сприймаються моделлю як частина постійного контексту.
Топ-новини зараз:

• “Не хвилюйся”: The Guardian розкрила, що Путін сказав у день вторгнення в Україну
• Трамп і Путін нібито ведуть неофіційні консультації щодо Nord Stream без участі ЄС — ЗМІ
• “Інакше це заважає жити”: Зеленська розкрила правду про страх і чоловіка
• Трамп загрожує наслідками Netflix через слова екс-радниці Обами

Чому ви можете довіряти vesti-ua.net →

Читайте vesti-ua.net в Google News

Підсумок від Вісті в Україні:

Ця інформація є надзвичайно корисною для всіх, хто активно користується інструментами штучного інтелекту, такими як ChatGPT чи Gemini. Розуміння вразливостей цих систем, особливо їхньої схильності до помилок у тривалих розмовах, допоможе користувачам більш критично ставитися до отриманих відповідей, перевіряти ключову інформацію та ефективніше взаємодіяти з ШІ, щоб отримувати точніші результати.

Дізнатися більше на: vesti-ua.net

No votes yet.
Please wait...

Залишити відповідь

Ваша e-mail адреса не оприлюднюватиметься. Обов’язкові поля позначені *