In:ventures{ru}
🚀 Самое время подписаться на наш телеграм канал @inventures_ru. Подписывайся и выигрывай 10 USDT каждую неделю.
{BTC} 6 976 718,00 ₽ -1,39% {ETH} 136 049,00 ₽ -4,29% {SOL} 9 787,32 ₽ -4,47% {TON} 257,87 ₽ -6,57% {XRP} 170,10 ₽ -3,10% {TRX} 20,39 ₽ -0,34%
🦎CoinGecko от: 10.04.2025 11:30 (MSK)

Мы уже слишком доверяем ИИ – надеюсь, галлюцинации исчезнут до того, как станет поздно

Доверие к ИИ растет, но проблема галлюцинаций сохраняется. Тесты показывают ошибки даже в простых данных, хотя новые модели становятся точнее. Когда ИИ перестанет ошибаться – вопрос времени.

Разговор с другом об ИИ натолкнул на интересные размышления. Он использует ИИ для анализа страховых документов – задача, которая обычно занимает часы, теперь решается за минуты. 🚀 Но есть нюанс: он знает, что примерно 10% данных могут быть неточными или вовсе выдуманы. Пока что человек остается последним звеном контроля качества. Но ненадолго.

Следующая его мысль поразила: рано или поздно ИИ перестанет ошибаться. И это не фантазия, а логичный итог стремительного развития технологий. Если раньше мы ориентировались на закон Мура (удвоение мощности чипов каждые 2 года), то теперь ИИ удваивает "интеллект" каждые 3-6 месяцев. Именно поэтому многие уверены, что искусственный общий интеллект (AGI) появится гораздо раньше, чем ожидалось.

Проблема галлюцинаций: пока не решена

Тесты популярных ИИ-чатов (ChatGPT, DeepSeek, ClaudeAI) показали, что даже с общедоступными данными (например, биографией из LinkedIn) модели часто ошибаются: путают места работы, даты, факты. 🐌 Например, ChatGPT "устроил" автора в TechRepublic вместо TechRadar, а ClaudeAI "застрял" в прошлом на 8 лет. Gemini и ChatGPT-4o оказались точнее, но лишь потому, что давали минимум информации.

Опросы в соцсетях показали: пользователи считают, что ИИ галлюцинирует в 25-40% случаев. Однако исследования говорят, что новые модели снижают этот показатель до 2% (HHEM). Старые, вроде Meta Llama 3.2, всё ещё выдают двузначные цифры ошибок.

Что дальше?

Скорость улучшения моделей впечатляет, и галлюцинации могут стать редкостью (<1%). Но пока неискушенные пользователи рискуют наводнить системы ошибками – пусть и мелкими, но массовыми. Вопрос: кто будет чистить этот "мусор"? Возможно, будущие ИИ научатся сами исправлять свои же промахи. А пока – осторожность не помешает.

08:11 25.03.2025 👓 414
Интересно