Разговор с другом об ИИ натолкнул на интересные размышления. Он использует ИИ для анализа страховых документов – задача, которая обычно занимает часы, теперь решается за минуты. 🚀 Но есть нюанс: он знает, что примерно 10% данных могут быть неточными или вовсе выдуманы. Пока что человек остается последним звеном контроля качества. Но ненадолго.
Следующая его мысль поразила: рано или поздно ИИ перестанет ошибаться. И это не фантазия, а логичный итог стремительного развития технологий. Если раньше мы ориентировались на закон Мура (удвоение мощности чипов каждые 2 года), то теперь ИИ удваивает "интеллект" каждые 3-6 месяцев. Именно поэтому многие уверены, что искусственный общий интеллект (AGI) появится гораздо раньше, чем ожидалось.
Проблема галлюцинаций: пока не решена
Тесты популярных ИИ-чатов (ChatGPT, DeepSeek, ClaudeAI) показали, что даже с общедоступными данными (например, биографией из LinkedIn) модели часто ошибаются: путают места работы, даты, факты. 🐌 Например, ChatGPT "устроил" автора в TechRepublic вместо TechRadar, а ClaudeAI "застрял" в прошлом на 8 лет. Gemini и ChatGPT-4o оказались точнее, но лишь потому, что давали минимум информации.
Опросы в соцсетях показали: пользователи считают, что ИИ галлюцинирует в 25-40% случаев. Однако исследования говорят, что новые модели снижают этот показатель до 2% (HHEM). Старые, вроде Meta Llama 3.2, всё ещё выдают двузначные цифры ошибок.
Что дальше?
Скорость улучшения моделей впечатляет, и галлюцинации могут стать редкостью (<1%). Но пока неискушенные пользователи рискуют наводнить системы ошибками – пусть и мелкими, но массовыми. Вопрос: кто будет чистить этот "мусор"? Возможно, будущие ИИ научатся сами исправлять свои же промахи. А пока – осторожность не помешает.