Արհեստական բանականության (ԱԲ) զարգացումը, մասնավորապես ChatGPT-ի հայտնվելը, հեղաշրջում կատարեց տեղեկատվության հասանելիության ոլորտում։ Սակայն, զուգահեռաբար ի հայտ եկան լուրջ մտահոգություններ՝ կապված կեղծ լուրերի (fake news) և ապատեղեկատվության տարածման հետ։ Ահա թե ինչպես կարող է ChatGPT-ն ակամա կամ միտումնավոր դառնալ կեղծ տեղեկատվության աղբյուր.
1. «Հալյուցինացիաներ»
Սխալներ, ChatGPT-ն չունի իրական գիտակցություն կամ փաստերը ստուգելու ներքին բնազդ։ Այն աշխատում է հավանականությունների սկզբունքով՝ կանխատեսելով հաջորդ տրամաբանական բառը։
Խնդիրը: Երբեմն համակարգը հորինում է փաստեր, ամսաթվեր կամ չակերտներ, որոնք երբեք չեն եղել, սակայն մատուցում է դրանք չափազանց համոզիչ և գրագետ լեզվով։
Վտանգը: Օգտատերը տեսնելով մասնագիտական տեքստ, կարող է հավատալ սխալ տեղեկատվությանը և այն տարածել որպես ճշմարտություն։
2. Ապատեղեկատվության մասսայական արտադրություն
Նախկինում կեղծ լուրեր ստեղծելու համար պահանջվում էր ժամանակ և մարդկային ռեսուրս։ ChatGPT-ն այս գործընթացը դարձրել է վայրկյանական և անվճար։
Խնդիրը: Չարագործները կարող են ռոբոտին հանձնարարել գրել հարյուրավոր տարբեր հոդվածներ նույն կեղծ թեմայով՝ փոխելով ոճը և շեշտադրումները։
Վտանգը: Սոցիալական ցանցերը կարող են ողողվել «բոտերի» կողմից գրված տեքստերով, ինչը ստեղծում է կեղծ հանրային կարծիք կամ քաոս տեղեկատվական ոլորտում։
ChatGPT-ն կարող է հարմարեցնել տեքստի տոնայնությունը ցանկացած լսարանի համար՝ լինի դա պաշտոնական զեկույց, թե հուզական գրառում։
Խնդիրը: Այն կարող է ստեղծել այնպիսի տեքստեր, որոնք թիրախավորում են մարդկանց վախերը կամ նախապաշարմունքները։
Վտանգը: Մարդիկ ավելի հակված են հավատալու այն տեղեկատվությանը, որը մատուցված է իրենց հոգեհարազատ ոճով, ինչը հեշտացնում է քաղաքական կամ տնտեսական մանիպուլյացիաները։
4. Աղբյուրների բացակայությունը
Թեև նոր տարբերակները կարող են հղումներ կատարել համացանցին, ChatGPT-ի հիմնական մոդելները հաճախ չեն նշում, թե կոնկրետ որտեղից է վերցված տեղեկությունը։
Խնդիրը: Դժվար է ստուգել տեղեկատվության սկզբնաղբյուրը։
Վտանգը: Առանց հղումների տեքստը նպաստում է անհիմն լուրերի տարածմանը, քանի որ «հեղինակությունը» մնում է միայն անդեմ ալգորիթմի վրա։
Ինչպե՞ս պաշտպանվել
Կեղծ լուրերի դարաշրջանում անհրաժեշտ է պահպանել մեդիագրագիտության հիմնական կանոնները.
1. Միշտ ստուգե՛ք փաստերը այլ հուսալի աղբյուրներում (լրատվական կայքեր, պաշտոնական էջեր)։
2. Կասկածամիտ եղեք չափազանց սենսացիոն կամ հուզական տեքստերի հանդեպ։
3. Օգտագործեք ԱԲ-ն որպես օգնական, այլ ոչ թե որպես հիմնական և առաջնային աղբյուր։
Եզրակացություն
Արհեստական բանականությունը, մասնավորապես ChatGPT-ն, մեծ հնարավորություն է տալիս արագ և հասանելի տեղեկատվություն ստանալու համար, սակայն միևնույն ժամանակ այն կարող է դառնալ ապատեղեկատվության և թվային մանիպուլյացիայի գործիք։ Նրա կողմից ստեղծված սխալ կամ հորինված տեղեկությունները հաճախ ներկայացվում են այնքան գրագետ և ինքնավստահ, որ օգտատերը դժվարանում է տարբերել ճշմարտությունը ստից։ Հենց այս համոզիչ ձևն էլ դարձնում է ԱԲ-ի արտադրած ապատեղեկատվությունը առավել վտանգավոր։Այս պայմաններում կարևոր է, որ օգտատերերը զարգացնեն մեդիագրագիտություն և քննադատական մտածողություն՝ չընդունելով արհեստական բանականության պատասխանները որպես վերջնական ճշմարտություն։ ChatGPT-ն պետք է դիտարկել որպես օգնական գործիք, այլ ոչ թե վստահելի աղբյուր։ Միայն մարդու գիտակցված և պատասխանատու մոտեցմամբ է հնարավոր նվազեցնել կեղծ լուրերի տարածման վտանգը թվային դարաշրջանում։
«Այս հրապարակումը պատրաստվել է Եվրոպական միության ֆինանսական աջակցությամբ: Բովանդակության համար պատասխանատվություն է կրում «ՄԵՆՔ» Լոռու մարզի երիտասարդական հասարակական կազմակերպությունը, և պարտադիր չէ, որ այն արտահայտի Եվրոպական միության տեսակետները»:
“This publication was produced with the financial support of the European Union. Its contents are the sole responsibility of “We” Youth Non-governmental Organization of Lori Region and do not necessarily reflect the views of the European Union.”
