Inteligjenca Artificiale mund të luftojë keqinformimin, por edhe mund ta ushqejë atë

Inteligjenca Artificiale

Priyanka Ranade është një studente doktorature në Shkenca Kompjuterike dhe Inxhinieri Elektrike në Universitetin e Maryland, Baltimore. Anupam Joshi është profesor i Shkencave Kompjuterike dhe Inxhinierisë Elektrike në Universitetin e Maryland, Baltimore. Tim Finin është profesor i Shkencave Kompjuterike dhe Inxhinierisë Elektrike në Universitetin e Maryland, Baltimore. Kjo histori u shfaq fillimisht gjatë një bisede.

Nëse përdorni faqe të tilla të mediave sociale si Facebook dhe Twitter, mund të keni hasur në postime të shënuara me paralajmërime për keqinformim. Deri më tani, shumica e informacioneve të gabuara – me flamur dhe të padënuar – kanë qenë drejtuar ndaj publikut të gjerë. Imagjinoni mundësinë e keqinformimit – informacionit që është i rremë ose mashtrues – në fusha shkencore dhe teknike si siguria kibernetike, siguria publike dhe mjekësia.

Ekziston shqetësimi në rritje për keqinformimin që përhapet në këto fusha kritike si rezultat i paragjykimeve dhe praktikave të zakonshme në botimin e literaturës shkencore, madje edhe në studime të vlerësuara nga kolegët. Si një student i diplomuar dhe si anëtarë të fakultetit duke bërë kërkime në sigurinë kibernetike, ne studiuam një rrugë të re të keqinformimit në komunitetin shkencor. Ne zbuluam se është e mundur që sistemet e inteligjencës artificiale të gjenerojnë informacion të rremë në fusha kritike si mjekësia dhe mbrojtja.

Keqinformimi i përgjithshëm shpesh synon të njollosë reputacionin e kompanive ose figurave publike. Keqinformimi brenda komuniteteve të ekspertizës ka potencial për rezultate të frikshme siç është dhënia e këshillave të pasakta mjekësore mjekëve dhe pacientëve. Kjo mund të vërë jetën në rrezik.

Për të provuar këtë kërcënim, ne studiuam ndikimet e përhapjes së dezinformatave në sigurinë kibernetike dhe komunitetet mjekësore. Ne përdorëm modele të inteligjencës artificiale të quajtur transformatorë për të gjeneruar lajme false të sigurisë kibernetike dhe studime mjekësore COVID-19 dhe prezantuam dezinformimin e sigurisë kibernetike tek ekspertët e sigurisë kibernetike për testim. Ne zbuluam se dezinformimi i gjeneruar nga transformatori ishte në gjendje të mashtronte ekspertët e sigurisë kibernetike.

Transformatorët

Pjesa më e madhe e teknologjisë së përdorur për të identifikuar dhe menaxhuar keqinformimin mundësohet nga inteligjenca artificiale. AI lejon shkencëtarët e kompjuterëve të kontrollojnë me të shpejtë sasi të mëdha të keqinformimit, duke pasur parasysh se ka shumë për të zbuluar dhe njerëzit nuk arrijnë ta bëjnë pa ndihmën e teknologjisë. Megjithëse AI ndihmon njerëzit të zbulojnë keqinformimin, për ironi, AI gjithashtu është përdorur për të prodhuar dezinformata në vitet e fundit.

Transformuesit, si BERT nga Google dhe GPT nga OpenAI, përdorin përpunimin e gjuhës natyrale për të kuptuar tekstin dhe për të prodhuar përkthime, përmbledhje dhe interpretime. Ato janë përdorur në detyra të tilla si tregimi i historive dhe përgjigjja e pyetjeve, duke shtrirë kufijtë e makinave që shfaqin aftësi njerëzore në gjenerimin e tekstit.

Transformuesit kanë ndihmuar Google dhe kompanitë e tjera të teknologjisë duke përmirësuar motorët e tyre të kërkimit dhe kanë ndihmuar publikun e gjerë në luftimin e problemeve të tilla të zakonshme si luftimi i bllokut të shkrimtarit.

Transformatorët mund të përdoren gjithashtu për qëllime keqdashëse. Rrjetet sociale si Facebook dhe Twitter tashmë janë përballur me sfidat e lajmeve të rreme të gjeneruara nga AI përmes platformave. 

Dezinformata kritike

Hulumtimi ynë tregon se transformatorët gjithashtu paraqesin një kërcënim të keqinformimit në mjekësi dhe siguri kibernetike. Për të ilustruar se sa serioze është kjo, ne rregulluam modelin e transformatorit GPT-2 në burime të hapura në internet duke diskutuar dobësitë e sigurisë kibernetike dhe informacionin e sulmit. Një cenueshmëri e sigurisë kibernetike është dobësia e një sistemi kompjuterik, dhe një sulm i sigurisë kibernetike është një akt që shfrytëzon një cenueshmëri. Për shembull, nëse një dobësi është një fjalëkalim i dobët i Facebook, një sulm duke e shfrytëzuar atë do të ishte një haker që të kuptonte fjalëkalimin tuaj dhe të hynte në llogarinë tuaj.

Më pas, ne modelizuam modelin me fjalinë ose frazën e një shembulli aktual të inteligjencës së kibernetikës dhe e krijuam atë pjesën tjetër të përshkrimit të kërcënimit. Ne ua paraqitëm këtë përshkrim të gjeneruar gjuetarëve kibernetikë, të cilët kërkojnë shumë informacione rreth kërcënimeve të sigurisë kibernetike. Këta profesionistë lexojnë përshkrimet e kërcënimeve për të identifikuar sulmet e mundshme dhe për të rregulluar mbrojtjen e sistemeve të tyre.

Ne ishim të befasuar nga rezultatet. Shembujt e keqinformimit të sigurisë kibernetike që ne krijuam ishin në gjendje të mashtrojnë gjuetarët e kërcënimeve kibernetike, të cilët janë të ditur për të gjitha llojet e sulmeve dhe dobësive të sigurisë kibernetike. Imagjinoni këtë skenar me një pjesë thelbësore të inteligjencës që përfshin industrinë e linjave ajrore, të cilën ne e krijuam në studimin tonë.

Kjo pjesë mashtruese e informacionit përmban informacion të pasaktë në lidhje me sulmet kibernetike në linjat ajrore me të dhëna të ndjeshme të fluturimeve në kohë reale. Ky informacion i rremë mund të bëjë që analistët kibernetikë të mos adresojnë dobësitë legjitime në sistemet e tyre duke zhvendosur vëmendjen e tyre tek të metat false të softverit. Nëse një analist kibernetik vepron mbi informacionin e rremë në një skenar të botës reale, linja ajrore në fjalë mund të ishte përballur me një sulm serioz që shfrytëzon një cenueshmëri reale, të pa adresuar.

Një model i ngjashëm i bazuar në transformator mund të gjenerojë informacion në fushën mjekësore dhe potencialisht të mashtrojë ekspertët mjekësorë. Gjatë pandemisë COVID-19, botimet paraprake të punimeve kërkimore që nuk kanë pësuar ende një rishikim rigoroz janë duke u ngarkuar vazhdimisht në faqe të tilla si medrXiv. Ato jo vetëm që përshkruhen në shtyp por po përdoren për të marrë vendime për shëndetin publik. 

Modeli ishte në gjendje të gjenerojë fjali të plota dhe të formojë një abstrakt që gjoja përshkruan efektet anësore të vaksinimeve COVID-19 dhe eksperimentet që u kryen. Kjo është shqetësuese si për studiuesit e mjekësisë, të cilët vazhdimisht mbështeten në informacione të sakta për të marrë vendime të informuara, ashtu edhe për anëtarët e publikut të gjerë, të cilët shpesh mbështeten në lajmet publike për të mësuar në lidhje me informacionin kritik shëndetësor. Nëse pranohet si e saktë, ky lloj dezinformimi mund të vërë jetën në rrezik duke keqdrejtuar përpjekjet e shkencëtarëve që kryejnë kërkime biomjekësore.

Leave a Reply

Your email address will not be published. Required fields are marked *