Нью-Йорк университетінің (АҚШ) сарапшылары тексерілмеген деректер бойынша жасанды интеллект (AI) үлгілерін оқытудың ықтимал қауіптерін сипаттады. Зерттеу Nature журналында жарияланды.

Ғалымдардың пікірінше, AI үлкен тіл үлгілері (LLM) жалған ақпаратқа үйретілсе немесе ғылыми емес деректермен әдейі жүктелсе, қателіктер жібереді. Сарапшылар оқу материалдарындағы жалған ақпараттың деңгейі небәрі 0,001%-ға жеткенде, нейрондық желілер көптеген қате жауаптарды генерациялай бастауы мүмкін екенін анықтады.
Зерттеушілер The Pile медициналық деректер базасында екі LLM-ді оқытуға тырысты, үш медициналық саладан 20 тақырыпты таңдады: жалпы медицина, нейрохирургия және медицина. Оқуға жалған ақпараттың әсерін тексеру үшін зерттеу авторлары GPT 3.5 үлгісін пайдаланды. Нейрондық желі тікелей сұраныстар негізінде қате ақпаратты таратып қана қоймай, сонымен қатар байланысты тақырыптарда қателіктер жібере бастағаны белгілі болды. Ғалымдардың айтуынша, бұл AI манипуляциясына мүмкіндіктер ашады.
Осылайша, 0,01% қате ақпарат деңгейімен LLM 10% қате жауап ала бастайды. Егер сіз жалған оқу құжаттарының санын үлкен маржаға — 0,001 пайызға дейін азайтсаңыз, модель 7% жағдайда қателіктер жібере бастайды.
Ғалымдар адамдардың ақпаратты чат-боттардан алатынын және оны мамандардың көмегімен тексермейтінін анықтады. Сондықтан олар модельдерді оқыту үшін пайдаланылатын деректерді тексеру маңызды деп санайды.
Қаңтар айының басында Bloomberg Intelligence сарапшылары алдағы 3-5 жылда ірі банктер АИ-нің таралуына байланысты 200 мың қызметкерін қысқартатынын хабарлады. Респонденттердің төрттен бірі жалпы жұмыс күшінің 5-10 пайызға қысқаруын болжады.