Koncentrējieties uz AI attīstību: eksperti pieprasa skaidrus noteikumus un ētikas standartus!
2025. gada 18. augustā UNI Bucerius eksperti apspriedīs AI regulējumu, ētikas jautājumus un inovācijas izaicinājumus.

Koncentrējieties uz AI attīstību: eksperti pieprasa skaidrus noteikumus un ētikas standartus!
2025. gada 18. augustā dzīvā paneļdiskusijā tika apspriesti mākslīgā intelekta (AI) regulējuma galvenie aspekti. Inovāciju pētnieks Dītmars Harhofs, bijušais Federālās valdības Pētniecības un inovāciju ekspertu komisijas priekšsēdētājs, norādīja, ka novatoriskā jauda AI jomā rada daudzus izplatīšanas jautājumus. Jo īpaši viņš kritizēja varas koncentrāciju dažos lielos uzņēmumos, īpaši Silīcija ielejā, kas tiek uzskatīta par bīstamāku nekā ideja par autonomām superinteliģencēm. Šī jaudas asimetrija prasa steidzamu rīcību.
Hārvardas Kenedija skolas profesors Mathias Risse diskusiju papildināja ar morālfilozofisku kritiku par izstrādātāju riska pieņemšanu. Viņš norādīja, ka mākslīgā intelekta attīstībā tiek pieņemts 6% "katastrofas" risks, kas nebūtu pieņemams citās jomās, piemēram, aviācijā. Šī perspektīva izceļ ētiskās problēmas mākslīgā intelekta izstrādē un lietošanā.
Cīņa pret regulējuma nepilnībām
Diskusijas centrālais paziņojums bija nepieciešamība politikai, likumam un pilsoniskajai sabiedrībai kļūt rīcībspējīgākai. Hārhofs iestājās par Eiropas risinājumu mākslīgā intelekta regulēšanai, kas netraucē inovācijām un nosaka skaidrus noteikumus par pārredzamību, atbildību un piekļuvi datiem. Diskusija turpinājās, un atklājās, ka neviena valsts vēl nav pieņēmusi visaptverošu AI tiesisko regulējumu, kā rezultātā ir radušies dažādi noteikumi. Šīs neadekvātās juridiskās prasības ir šķērslis efektīvam regulējumam.
Regulēšanas jautājumi ir īpaši sprādzienbīstami, jo mākslīgais intelekts rada sarežģītību un ir saistīts ar lielu, bieži mulsinošu datu apjomu apstrādi. Kā bpb.de skaidro, esošie noteikumi ir nepietiekami, lai samazinātu saistītos riskus un izmantotu iespējas. AI regulējumam nav starptautisku vadlīniju, tāpēc ir grūti efektīvi reaģēt uz AI prakses izaicinājumiem un riskiem.
Globālās perspektīvas un standarti
Vēl viena galvenā diskusijas tēma bija AI regulējuma starptautiskā dimensija. Ar savu ieteikumu par mākslīgā intelekta ētisku izmantošanu UNESCO ir radījusi starptautisku juridisku bāzi, kuras mērķis ir veicināt cilvēktiesības un pamatbrīvības. Šis ieteikums sniedz globālu atsauces sistēmu, kas ietver tādas vērtības kā privātums, pārredzamība, izskaidrojamība un nediskriminācija. unesco.de.
Īpaši svarīga ir arī saikne starp mākslīgo intelektu un ilgtspējīgu attīstību. Tiek prasīts, lai, izmantojot AI, cilvēktiesības ir ne tikai jāievēro, bet arī aktīvi jāveicina. Šajā kontekstā tiek uzsvērts piesardzības princips: ja ir pamatotas bažas par negatīvām sekām, daži AI lietojumi nav jāturpina.
Ētiskais spriedums, politiskā griba un sociālās debates ir ļoti svarīgas turpmākai AI izmantošanai. Pēc oficiālās diskusijas tālākās domas par AI nākotni tika apmainītas ar kliņģeri un vīnu. Kļuva skaidrs, ka izglītība un digitālā pratība, kā arī aktīvas publiskas debates par AI izaicinājumiem ir būtiskas.