ChatBot әр жолы дұрыс емес нәрсені жасайды, көптеген пайдаланушылардың бірінші инстинкті — бұл қателік жасағаннан не болғанын сұрау. Бірақ тілдік модельдермен, нақты адамдардан айырмашылығы, бұл көмектеспейді. Олар өз қателіктерін талдай алмайды. Arstechnica.com ақпараттық порталы.

Бірінші мәселе — Тұжырымдама. Чатбелгімен сөйлескен кезде, сіз кейбір адамдармен немесе тұрақты табиғатпен байланыспайсыз. Ия, Chargpt, Clude, Grok немесе техникалық түрде аталған, бірақ олар білімді емес, бірақ олар білуге лайық емес — бұл тек диалог интерфейсі жасаған елес. Шын мәнінде, сіз пайдаланушының талаптарына байланысты нәтиже бере отырып, сіз мәтін статистикасын басқарасыз.
Басқаша айтқанда, чат немесе грек жоқ. Адам дерекқорда табылған үлгілер негізінде толық аудио мәтінді құратын жүйемен өзара әрекеттеседі (әдетте ескірген). Бұл жүйеде өзіндік өзіндік-өзіндік-өзіндік-өзіндік-жүйелік білім, сонымен қатар өзін есте сақтау қабілеті жоқ.
Тілдік модельді зерттегеннен кейін, көп уақыт пен ресурстар қажет, оның әлем туралы негізгі білімі нерв желісінде мөрленеді және сирек өзгертіледі. Кез-келген сыртқы ақпарат нақты уақыт режимінде деректерді табу үшін пайдалануға арналған, пайдаланушы құралдарынан немесе бағдарламалық жасақтамадан туындайды.
Мысалы, егер сіз GROK алсаңыз, жауап үшін негізгі ақпарат көзі әлеуметтік желілердегі соңғы жазбалардан бір-біріне қайшы келуі мүмкін. Білімдер емес, барлығы сияқты. Егер бұл ақпарат жеткіліксіз болса, модель мәтінді болжау мүмкіндігіне байланысты бір нәрсе береді.
Екінші сан — бірқатар себептер бойынша өз қабілеттерін кім түсінбейді. Әдетте, оларда олардың зерттеулер туралы мәліметтері жоқ, олар үшін қоршаған жүйенің архитектурасы олар үшін қол жетімді емес, олар олардың жұмысының шекараларын анықтай алмайды. Егер сіз чатбелгіңізді сұрасаңыз, ол не істей алады және олай емес, содан кейін ол алдыңғы тілдік модельдердің шектеулері туралы айтқандарының негізінде кері байланыс береді. Шындығында, ол жай ғана болжаммен, және өзі туралы практикалық емес ақпаратпен жауап береді.
2024 жылы зерттеулер бұл нюанстарды эксперименттің көмегімен дәлелдеді. Модельдер II модельдерде оқытыла алады, сондықтан олар қарапайым тапсырмаларда өздерінің мінез-құлқын болжай алады, олар үнемі күрделі тапсырмаларда үнемі келіп түседі. Сол сияқты, викингтің рекурсивті енгізу бойынша зерттеулер сыртқы жағынан, олардың қателіктерін түзетуге тырысатын жауап жоқ, олар модельдің өнімділігінің төмендеуіне әкеледі. Яғни, Ai-дің өзін-өзі-тиеемі нашарлайды, жақсы емес.
Кейде бұл парадоксалды жағдайларға әкеледі. Модель бұл тапсырмаларды орындай алмайтынын сенімді түрде айта алады, бірақ іс жүзінде оның иығында және керісінше, пайдаланушыларға мүмкін емес нәрсені жасай алатындығын қамтамасыз ете алады. Мұны ұмытпауымыз керек, біреуден қателескені туралы сұрап, пайдаланушылар қате туралы нақты талдауды емес, мәтіннің басқа бөлігін алады.
Тілдік модельдердің құлдырауы — бұл сіз әрқашан байланыса алатын тұрақты және қол жетімді білім негізі жоқ. Олардың білімі тек нақты талаптарға сай келеді; Әр пайдаланушының өтініші ол дайындалған дерекқордың әртүрлі бөліктеріне қатысты мекен-жай түрінің рөлін атқарады. Бұл нақты жауаптардың дәлелі.
Бірақ II егер II болса да, өз механизмдері туралы идеалды білсе, қосымшалармен сөйлесудің басқа қабаттары ене алмауы мүмкін. Сондықтан, Tatgpt сияқты заманауи Айстралар бірыңғай модель емес, бірақ үлкен жүйелер, соның ішінде бірге жұмыс істейтін әртүрлі модельдер. Олардың әрқайсысы басқалардың бар екендігі туралы білмейді. Сондықтан, кез-келген адамға басқа бөлігінде не болып жатқанын сұрағандай қателер туралы сұрау олармен байланысқан жоқ.
Соңында, ең маңызды мәселе, пайдаланушы әрқашан кез-келген адамның жауабына әсер етеді — олардың білмеуі немесе маңызды емес. Егер сіз чатбелке сұмдықпен сұрасаңыз, ол Бағдарламаның жазбаларын немесе кодын жойып жіберді ме, содан кейін ол «Иә» деп жауап бере ме, жоқ па, бұл опция сұраудың эмоционалды контексіне жарамды.