V novicah zadnje čase vse več beremo o vzponu orodij umetne inteligence (UI). Pogovorni roboti kot sta ChatGPT in Copilot se uporabljajo za pomoč pri ustvaranju besedil, člankov, objav na družbenih omrežjih in zadnje čase tudi vizualnih vsebin, kot so slike in videi.
Orodja umetne inteligence se razvijajo izjemno hitro. Ocenjuje se, da bo do leta 2026, 90% vsebin na spletu generiranih s strani UI orodij.
Kjer smo leto nazaj lahko brez težav prepoznali UI tekst ali sliko, pa imamo danes že pogosto težave. Slike ustvarjene z umetno inteligenco, so se začele pojavljati v oglasih in v novicah. Pogovorni roboti so začeli nadomeščati zaposlene v podpornih in telekomunikacijskih centrih.
Na družbenih omrežjih vidimo posnetke, kako gori Eifflov stolp, ki so v celoti ustvarjeni z UI. Tovrstne situacije na spletu postajajo vedno bolj pogoste in pomembno je, da jih znamo prepoznati. Njihov vpliv nas lahko namreč dezinformira, vpliva na naše dojemanje realnosti in celo prevara, tako informacijsko kot tudi finančno.
Pogovorni roboti prevzeli splet
Z vzponom UI orodij se je na spletu povečalo tudi število botov - umetno ustvarjenih profilov na družbenih omrežij, ki jih opravljajo programi. Ti robotski profili na spletu komentirajo, med sabo interaktirajo, všečkajo objave in tudi pišejo osebna sporočila. Ta lahko pogosto vključujejo zlonamerne povezave ali druge načine poskusa prevare. V letu 2022 je bilo ocenjeno, da je 47,4% internetnega prometa prišlo s strani botov.
Ti boti z nami tudi stopajo v stik ali pa mi ta stik sami namenoma iščemo. Če se zavedamo, da je na drugi strani pogovorni robot ali ne, lahko v primerih daljše komunikacije tudi pride do navezanosti na robota, ta navezanost pa je potem lahko uporabljena za zlonamerne namene (phishing poskusi, kraja podatkov, izsiljevanje…). Ko osebe ne prepoznajo, da komunicirajo s programom, lahko to pripelje tudi do čustvenih stisk in finančnih težav.
Vzpon Deepfake tehnologije in generiraje videov
Ena izmed najbolj zaskrbljujočih aplikacij UI v kontekstu ustvarjanja neresničnih vsebin je razvoj t.i. deepfake tehnologije. Deepfake tehnologija omogoča ustvarjanje prepričljivih, a popolnoma izmišljenih videoposnetkov, kjer lahko obraz osebe v videu poljubno spremenimo. Če k temu dodamo še spreminjanje glasu osebe, dobimo izredno prepričljiv posnetek. V posnetkih lahko potem “pripravimo” osebo, da govori ali počne stvari, ki se zares nikoli niso zgodile.
Pogosto se v te posnetke vstavlja posameznike, brez njihove privolitve. Ta oblika zlorabe lahko osebam povzroči nepopravljivo škodo ugledu ter čustvene in duševne stiske. Še huje, posnetki, ki prikazujejo posameznike v intimnih situacijah, četudi so te popolnoma izmišljene, lahko hitro krožijo po spletu in postanejo orodje za nadlegovanje ali celo izsiljevanje. Tehnologija pa se lahko uporabi tudi za poskuse vpliva na družbo, še posebej v časih političnih volitev in za širjenje dezinformacij.
Uporaba teh orodij pa postaja vedno bolj enostavna in dostopna. Podjetje OpenAI je pred kratkim predstavilo svoj novi ustvarjalec video vsebin SORA, ki na podlagi preprostega teksta generira celoten fotorealističen video, katerega je težko ločiti od resničnega posnetka.
Prevare z ukradenim glasom - Voice Cloning
Poleg kopiranja obrazov oseb v videoposnetkih, pa lahko danes kopiramo tudi njihove glasove, intonacija in način govora. Gre za postopek, kjer lahko iz vzorca glasu določene osebe naredim glasovni filter, ki ga nato nastavim preko svojega glasu in zvenim kot želena oseba ali pa z “ukradenim” glasom ustvarim govorjeno vsebino. Temu postopku rečemo voice cloning oz. kloniranje glasu.
Tehnologija se primarno razvija za potrebne virtualnih asistentov, ki bi z nami lahko govorili s poljubnim glasom, za različne prevajalske aplikacije, ustvarjanje video vsebin ipd. A ob tem se tehnologija uporablja tudi za prevare in dezinformacijske namene.
Po svetu se že pojavljajo primeri, kjer prevaranti z uporabo kloniranja glasu žrtve pripravijo do tega, da jim pošljejo denar. Pogosto preko klica, kjer se storilec pretvarja, da je družinski član žrtve in da je trenutno v hudi stiski, ki zahteva neko obliko plačila (pretvarjanje, da so ugrabljeni, da so v zaporu ali bolnišnici). Ti klici po navadi kličejo z izredno nujnostjo, da bi s tem žrtve čim hitreje spravili v stanje zaskrbljenosti in strahu. V teh stanju smo veliko bolj dovzetni za iracionalna dejanja, ki vključujejo denarne transakcije
Kako UI vsebino na spletu prepoznati?
Sposobnost prepoznavanja UI vsebin na spletu bo postala v naslednjih letih osnovna in nujna veščina, če želimo internet navigirati varno in koristno.
Nasveti za prepoznavanje UI vsebin vključujejo:
- Pri video in slikah bodo UI vsebine pogosto ustvarile nemogoče situacije. Pozorni smo lahko na roke oseb v vsebini (npr. število prstov), na dogajanje v ozadju, na obrazne mimike oseb in premike njihovih ustnic.
- Pri tekstovnih vsebinah smo pozorni na ponavljanje stavkov, na neosebni stil pisanja in na vsebino, ki nima konkretnih primerov ali dejstev.
- Pozorni smo lahko tudi na napake. UI bo včasih v tekstu na primer naredil zelo očitne napake, ki jih človek ne bi (primer: “Ni za kaj” stavek izpiše kot “Nimate za kaj”), po drugi strani pa bo pogosto pisal preveč brezhibno in “popolno”.
- Kadar smo preko spleta v interakciji z nekom, ki ga poznamo v resničnem življenju in nas ta oseba naenkrat v navidezni stiski nepričakovano prosi za denar, podatke, dostop ipd., smo do te zahteve skeptični in jo dvojno preverimo.
- Vedno preverjajte zanesljivost in verodostojnost vsebin na spletu ter preverite, ali so informacije podprte s primerljivimi viri. Še posebej, kadar gre za vsebine, ki imajo na nas močan čustven vpliv (nas šokirajo, presenečajo, prestrašijo, jezijo…).
Podprite naše poslanstvo
Pošljite SMS s ključno besedo LOGOUT5 na številko 1919 in prispevali boste 5 EUR. Namenite nam lahko tudi do 1% dohodnine.