«Моделі штучного інтелекту руйнуються при тренуванні на рекурсивно згенерованих даних». Так вважає Ілля Шумайлов разом з колегами, які на сторінках Nature досліджують явище "колапсу моделі" – процес, під час якого поступово знижується якість моделей ШІ, що треновані на даних, згенерованих попередніми версіями моделей ШІ. Автори дослідження демонструють, що моделі втрачають інформацію у кожному новому поколінні та наводять приклади колапсу для різних типів, зокрема великих мовних моделей, варіаційних автокодувальників та моделей суміші Гауса.
Штучний інтелект і живучі академічні бібліотекарі
Створив
pan.bibliotekar
on середа, 2 жовтня 2024 р.
Штучний інтелект вже змінив сучасну науку, питання тільки – чи хакне ШІ саму науку? Тобто остаточно відкине дослідницькі принципи та техніки якими повільні малоефективні люди користувалися протягом століть. Чи знайде ШІ, що наукового можна доручити цим повільним недосконалим білковим істотам, а тим паче чи варто витрачати час на людей і намагатися їм щось пояснювати про світ навколо? Проблема навіть не в цілком реальній “когнітивній атрофії”, а загалом в можливостях людського пізнання.