Objavljeno: 9.5.2023 05:00 | Teme: umetna inteligenca

Bela hiša pozvala tehnološke velikane k previdnosti pri umetni inteligenci

Medtem ko so najdlje na področju regulacije umetne inteligence nekoliko presenetljivo na Kitajskem, Evropa tudi ne zaostaja mnogo, so v ZDA problem začeli reševati drugače. Direktorje Googla, Microsofta in OpenAIja so v četrtek povabili v Belo hišo, kjer so jih posvarili, da imajo moralno dolžnost zaščititi javnost pred negativnimi posledicami umetne inteligence.

Sundar Pichai iz Googla, Satya Nadella iz Microsofta in Sam Altman iz OpenAI so se srečali s podpredsednico Kamalo Harris. Kot je kasneje dejal Altman, so bili vsi trije podobnega mnenja, da je regulacija potrebna. Kamal Haris pa je kasneje z izjavi za javnost povedala, da bi nova tehnologija utegnila predstavljati nevarnost za varnost, zasebnost in človekove pravice, a hkrati tudi izboljšati kvaliteto življenja. Zato ima zasebni sektor etično, moralno in pravno odgovornost, da poskrbi za varnost njenega uvajanja.

Pozivi k regulaciji se kar vrstijo. Kitajska bo v sredo sprejemala zakonodajo na tem področju, v Evropi se pripravlja AI Act. Prejšnji teden je odstopil Geoffrey Hinton, oče umetne inteligence, da je neobremenjeno posvaril svet pred nevarnostjo, ki jo predstavlja umetna inteligenca. Tudi ameriška Agencija za trgovino (FTC) je sporočila, da podpirajo regulacijo umetne inteligence. Marca je zaokrožilo tudi pismo več strokovnjakov, naj se vsaj za pol leta ustavi razvoj, kar se seveda ni zgodilo.

Niso vsi mnenja, da je umetna inteligenca slaba, in nekateri aktivno podpirajo njen hiter razvoj, denimo Bill Gates. Se pa večina strinja, da je treba ravnati pazljivo in da se morajo podjetja omejevati tudi sama, saj razvoj zakonodaje nikoli ne more dohitevati razvoja tehnologije. Umetna inteligenca pa je tehnologija, ki lahko v vmesni vrzeli povzroči veliko škode.

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

 
  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji