Жасанды интеллектке (AI) негізделген үлкен чат-боттар күрделі сұрақтарға жауап беру кезінде қателесу ықтималдығы жоғары. Тиісті зерттеу Nature журналында жарияланды.

Ғылыми жұмыстың авторы, Испанияның Валенсия жасанды интеллект ғылыми-зерттеу институтының қызметкері Хосе Эрнандес-Оралло озық AI үлгілеріне негізделген үш ірі чат-боттың жұмысын сынақтан өткізді. Оның айтуынша, чатбот шын мәнінде күрделі сұрақтарға «білмеймін» деп жауап беруді ұмытып, көбірек қателесе бастаған. Ғалымның пайымдауынша, «қандай жағдайда да әрекет ету» парадигмасы модельге оны жасаушылар енгізген.
Сарапшы және оның әріптестері GPT, OpenAI's BLOOM және BigScience академиялық тобы жасаған модельді қоса алғанда, үлкен тіл үлгілерінің (LLM) үш тобын зерттеді. Тестілеу кезінде ғалымдар қиын сұрақтар қойып, AI-ны мәселелерді шешуге мәжбүр етті. Модельдер бұрынғы модельдерге қарағанда әлдеқайда ақылды болып шықты, бірақ олар жауапты білмеймін деп айтудың орнына қателесе бастады.
Сондай-ақ команда барлық модельдер кейде қарапайым сұрақтарға да қате жауап беретінін анықтады. «Адамдар бұл стереотиптерді басқара алмайды», — деді Эрнандес-Оралло.
Ғалымдардың пікірінше, модельдеушілер чат-боттардың жауабын білмейтін сұрақтарды өткізіп жіберуге құқылы болуын қамтамасыз етуі керек. Әйтпесе, AI пайдаланушыларды алдайды.
Қыркүйек айының соңында AMCI тестілеуінің зерттеушілері Tesla автопилот жүйесінің жаңа нұсқасы қауіпті әрекеттерге бейім екенін анықтады. Сондықтан сынақ үлгісі қызыл шамға өтіп, апатқа ұшырады.