LFFB

Vai mākslīgais intelekts ņem virsroku pār realitāti?

Autors: Mīdija | | Apskati | ittehnoloģijas

7. februāris, 2026

Spēja atšķirt īstu, cilvēka radītu saturu no mākslīgā intelekta kļūst arvien sarežģītāk. Vai tiešām realitāte vairs nav pašsaprotama?

Patlaban mēs dzīvojam laikā, kad tehnoloģijas ir bijušas klātesošākas kā jebkad iepriekš cilvēces vēsturē, un ir skaidrs, ka šī tendence tikai pieaugs. Tas nozīmē arī prātam neaptveramu daudzumu inovāciju, kuru vidū, protams, ir arī mākslīgais intelekts.

Mākslīgajam intelektam attīstoties, šķiet, esam nonākuši realitātes krīzē. Kā nekā, kļūst arvien grūtāk atšķirt cilvēka radītu saturu no datora ģenerēta – video un fotogrāfijas ir teju neiespējami atšķirt. Vai tiešām mākslīgais intelekts ir ņēmis virsroku par realitāti?

Pētījumi rāda, ka pat pieredzējuši lietotāji nespēj atšķirt mākslīgā intelekta videoklipus no realitātes, piemēram, Runway 4.5 modeļa pētījums norāda, ka brīvprātīgie pētījuma dalībnieku videoklipus identificēja pareizi vien 57% gadījumu.

Šāds rezultāts norāda uz nejaušību. Turklāt, ņemot vērā, ka paša Runway dibinātāji nereti kļūdās par to, kas ir un kas nav īsts, kļūst skaidrs, ka sabiedrība vairs nespēj atšķirt realitāti no farsa.

Mākslīgais intelekts neapšaubāmi ir attīstījies tiktāl, ka tas spēj veiksmīgi atdarināt cilvēku darbības, sejas izteiksmes un vidi tik precīzi, ka pat instinktīva uzticēšanās acīm vairs nespēj nodrošināt drošību. Sociālie mediji, kas izsen ir kalpojuši par vidi, kur tiek atspoguļota dažādu cilvēku ikdienas realitāte, ir piesātināti ar mākslīgi radītu saturu.

Pat valdības, piemēram, ASV valdība, niekojas ar mākslīgā intelekta radītiem attēliem, kur attainotas sevišķi jutīgas ainas, tādejādi izraisot sava veida uzticības krīzi. Arī Latvijā politiķi nav sveši ar mākslīgā intelekta ģenerēta satura izmantošanu, ar ko pērn mēdza aizrauties partijas “Latvija Pirmajā Vietā” līderis Ainārs Šlesers.

Viens ir skaidrs – runa jau sen nav tikai par tehnoloģiskām inovācijām, bet gan pieaugošu plaisu sabiedrībā, kur dien dienā ir jāapšauba realitāte. Mēs vairs nevaram paļauties uz ierastajām pazīmēm, piemēram, pārlieku plūstošu kustību vai sešiem pirkstiem, lai noteiktu notikumu patiesumu.

Problemātika un tehnoloģiskie šķēršļi

Mēģinājumi regulēt mākslīgā intelekta ģenerētu saturu un nodrošināt uzticamību līdz šim ir saskārušies ar ievērojamām grūtībām. Viens no lielākajiem centieniem ir C2PA standarts, ko iniciēja Adobe un atbalsta lielie tehnoloģiju smagsvari, tostarp MicrosoftMeta un OpenAI.

C2PA, jeb Content Credentials, paredz iebūvēt metadatus attēlos un video, kas fiksē katru rediģēšanas un mākslīgā intelekta izmantošanas soli, radot teorētisku iespēju verificēt saturu. Praktiski šis risinājums ir sarežģīts un tā ieviešana ir teju neiespējama.

Metadati var tikt mainīti, dzēsti vai ignorēti, un sociālo mediju neviendabīga pieeja šo datu interpretācijai ierobežo C2PA efektivitāti. Apple līdz šim nav publiski pievienojies standartam. Google to ievieš tikai Pixel telefonos. Citi ražotāji, piemēram, Samsung, joprojām ignorē šo risinājumu. Tas ilustrē uzskatāmu nevienprātību un minstināšanos realitātes pasargāšanas kontekstā.

Arī tādi līderi kā Instagram un X demonstrē tikai simbolisku atbalstu, bet platformu darbības īstenībā atklāj, ka metadatu nolasīšana un vizuālo signālu autentifikācija ir neefektīva. Turklāt Runway Gen-4.5 parāda, ka pat profesionāļiem reāla satura atšķiršana kalpo par izaicinājumu.

Piemēram, nepareizas kustību secības, objektu izzušana vai neloģiska rīcība kalpo par vienīgajām pamanāmajām norādēm, un pat tad satura noteikšana retāk pārsniedz 60% slieksni.

Tas atspoguļo fundamentālu problēmu. Pat labākie tehnoloģiskie rīki nespēj pilnībā kompensēt cilvēku uztveres ierobežojumus, un neviens standarts nevar garantēt universālu patiesuma nodrošinājumu.

Līdz ar to mēs esam nonākuši situācijā, kur uzticība vizuālajiem vai rakstiskajiem datiem kļūst par riskantu spekulatīvu darbību, nevis par drošu informācijas avotu.

Šī problēma pastiprina sociālās un psiholoģiskās sekas. Cilvēki sāk apšaubīt visu, ko redz un lasa, radot “post-truth” vidi, kur realitāte kļūst subjektīva un viegli manipulējama.

Risinājumi un tehnoloģiju potenciāls

Lai gan situācija šķiet bezcerīga, ir centieni to risināt. Pirmkārt, standartu ieviešana, piemēram, C2PA un Google SynthID, ļauj iebūvēt metadatus un, teorētiski, identificēt satura izcelsmi.

Šie standarti darbojas divos līmeņos. Pirmkārt, pie satura radīšanas, kad tiek fiksēti izmaiņu soļi un mākslīgā intelekta izmantošana, un otrkārt, pie satura publicēšanas, kad platformas teorētiski var nolasīt metadatus un lietot autentifikācijas etiķetes.

Praktiski šī sistēma darbojas tikai ierobežotā mērogā, piemēram, Pixel telefoniem vai Adobe produktiem. Turklāt sistēmas plašāka ieviešana joprojām ir sarežģīta – kā no tehniskā, tā juridiskā aspekta.

Otrkārt, būtiska ir sociālo mediju un satura veidotāju atbildība. YouTubeTikTok un Instagram ir ieviesuši vien daļēju pārbaudi, bet dažādi pieejas trūkumi, piemēram, metadatu dzēšana augšupielādes laikā vai neskaidra etiķešu interpretācija, padara sistēmu neefektīvu.

Treškārt, sabiedrības izglītošana mākslīgā intelekta satura kontekstā ir kritisks punkts. Runway eksperti iesaka lietotājiem attīstīt kritisko domāšanu. To, protams, nodrošina tikai cilvēka radīta satura patērēšana, piemēram, grāmatu lasīšana, filmu skatīšanās. Kā nekā tieši šos medijus mākslīgais intelekts vēl nespēj ģenerēt tā, lai tas būtu pielīdzināms cilvēka iztēlei un radošumam.

Trešais virziens ir regulējumu ieviešana. Online Safety Act un citi likumdošanas projekti var radīt juridisko ietvaru, kas piespiež tehnoloģiju gigantiem noteikt un ievērot standartus.

Līdz ar to risinājumi ir daudzslāņaini, proti, tehnoloģiskie standarti, platformu atbildība, izglītošana un regulējums kopā var radīt pat nelielu, bet būtisku progresu cīņā ar realitātes destabilizāciju. Tas nozīmē, ka pat ja ideāla universāla sistēma netiks sasniegta, kombinēta pieeja var nodrošināt caurspīdīgumu un cilvēka psihei drošāku virtuālo telpu.

Kritiska satura uztvere

Skaidrs, ka problēmas saknē ir cilvēku spēja (drīzāk nespēja) uztvert mākslīgā intelekta radītu saturu. Pat pieredzējuši digitālās vides iedzīvotāji kļūdās, mēģinot atšķirt mākslīgi radītu video vai tekstu no īsta. Pētījumi norāda, ka cilvēki bieži identificē kvalitatīvu mākslīgā intelekta tekstu kā cilvēka rakstītu un otrādi.

Cilvēki vairāk reaģē uz kvalitāti, emocionālitāti un kontekstu nekā uz autorību. Tas rada situāciju, kur mākslīgi radīts saturs var veiksmīgi maskēties kā cilvēka radīts.

Turklāt izplatītāki sociālie signāli, piemēram, “mediju reputācija” vai “creator trust”, vairs nespēj garantēt autentiskumu, jo mākslīgais intelekts spēj apiet un imitēt ierastos uzticības indikatorus.

Tas nozīmē, ka ar cilvēku uztveri, kas balstās uz pieredzi un intuīciju, ir par maz. Lai kompensētu šo trūkumu, nepieciešama tehnoloģiju un cilvēku mijiedarbība.

Cilvēks izmanto rīkus, metadatus un platformu signālus, lai labāk novērtētu saturu, bet tas pieprasa kritisko domāšanu, izglītošanu un jaunas prasmes uztveres uzlabošanai. Šī situācija atspoguļo dziļu pāreju no pasīvas uzticēšanās redzētajam uz aktīvu, analītisku informācijas patiesuma pārbaudi.

Vai realitātei vēl ir izredzes?

Skatoties uz priekšu, ir skaidrs, ka cīņa starp mākslīgo intelektu un realitāti saasināsies. Ir jāsaprot, ka mākslīgais intelekts turpinās kļūt reālistiskāks, tas tiks integrēts digitālaā vidē arvien vairāk un vairāk, un tradicionālie uzticības mehānismi vairs nebūs pietiekami.

Kārtējo reizi ir nepieciešams apzināties, ka sociālie mediji, vai tas būtu InstagramFacebook vai X, balstās uz peļņu un lietotāju iesaisti. Tiešī tāpēc ir neizdevīgi ieviest risinājumus, kas samazina ģenerētu saturu un dezinformāciju.

Regulas, tehnoloģiski standarti un mākslīgā intelekta apzināšanās būs kritiski instrumenti, lai saglabātu vismaz kaut kādu realitātes izjūtu internetā.

Ja attiecīgie rīki netiks ieviesti, mēs spēlējam riskantu spēli, kur realitāte vairs nav pašsaprotama, bet gan subjektīva in viegli manipulējama, kas vienlaikus ļautu mākslīgajam intelektam dominēt pār mūsu dzīves uztveri. Skadirs ir viens – vieglāk nekas nepaliks.

https://notepad.lv/tehnologijas/maksligais-intelekts/vai-maksligais-intelekts-nem-virsroku-par-realitati/