Глава NVIDIA каже, що розв'язання проблем із "галюцинаціями ШІ" займе кілька років

Вирішення проблем із галюцинаціями ШІ займе «кілька років» / фото ua.depositphotos.com

Генеральний директор NVIDIA Дженсен Хуанг каже, що сьогоднішній штучний інтелект (ШІ) не дає найкращих відповідей, і що галузь усе ще перебуває «за пару років від» ШІ, якому ми зможемо «значною мірою довіряти», пише Business Insider.

Щодо проблеми галюцинацій, або тенденції ШІ видавати хибні, але правдоподібні відповіді, керівник найдорожчої компанії у світі вважає, що люди не повинні сумніватися у відповіді ШІ, ставлячи собі питання, «галюцинація це чи ні», «розумно це чи ні».

Великі мовні моделі, такі як ChatGPT, за останні кілька років значно просунулися у своїй здатності відповідати на складні запитання, але в них усе ще є обмеження.

Відео дня

Галюцинації, або надання неправдивих, або фіктивних відповідей, є однією з постійних проблем чат-ботів ШІ. Зокрема, був випадок, коли американський юрист використовував у суді фіктивні цитати, згенеровані ChatGPT. Пізніше з’ясувалося, що чат-бот OpenAI у своїх відповідях посилався на неіснуючі справи.

Глава NVIDIA запропонував зобов’язати мовні системи вивчати і підтверджувати відповіді з достовірних джерел перед видачею результату. За його словами, цей процес може бути схожим на «фактчекінг» у журналістиці: порівняти факти з джерел з відомими істинами, і якщо відповідь частково неточна – відкинути все джерело.

Раніше повідомлялося, що Google інвестує в ядерну енергетику через зростаючий апетит ШІ, а Microsoft «воскресила» виведений з експлуатації ядерний реактор для живлення своїх ШІ-серверів. В історії США ще не було такого, щоб закрита АЕС поверталася до ладу і тим паче постачала всю енергію одному замовнику.

Тим часом OpenAI взимку має представити нову модель ШІ. За очікуваннями розробників, ця модель має вийти на рівень загального штучного інтелекту (AGI). Тобто спілкування з нею нагадуватиме спілкування з живою людиною.

www.unian.ua