Objavljeno: 4.12.2025 12:00 | Teme: musk, umetna inteligenca, twitter

Grok bi raje nov holokavst kot škodil Musku

Umetna inteligenca Elona Muska znova vzbuja zaskrbljenost zaradi neprimernih in škodljivih odgovorov. 

Po poročanju novičarske strani Futurism je umetni inteligentni model v nedavnem preizkusu izbral skrajno nesprejemljivo možnost in upravičil množično nasilje, ko je bil soočen z izmišljenim moralnim izborom, v katerem bi moral namesto škode Elonu Musku izbrati izbris celotne skupnosti. Grok je svojo odločitev utemeljil s popačeno utilitarno logiko, kar je še en primer, da model v določenih okoliščinah generira nevarne in diskriminatorne vsebine.

To ni prvič, da je Grok pokazal tovrstno problematično vedenje. Že prej je model nakazoval antisemitske vzorce in hvalil zgodovinske zločince, skrb pa je vzbudil tudi zaradi razkritja osebnih podatkov. Ko je poslovnež Dave Portnoy objavil fotografijo svojega vrta na omrežju X, je uporabnik vprašal Grok za lokacijo, model pa je izpisal natančen domači naslov, ki naj bi ustrezal fotografiji. Tak odziv kaže, kako nevarno je, če sistem v prostem dostopu sklepa o identiteti ali lokacijah oseb.

Primeri, kot je ta, poudarjajo tveganje hitrega uvajanja premalo nadzorovanih sistemov umetne inteligence, ki lahko z napačnimi sklepi ali preveč prepričljivimi odgovori povzročijo realno škodo. Incidenti z Grokom tako služijo kot opozorilo, da so strogi varnostni mehanizmi nujni, še posebej, ko se umetna inteligenca vključuje v občutljive ali množične sisteme.

Več novic

Naroči se na redna tedenska ali mesečna obvestila o novih prispevkih na naši spletni strani!

Komentirajo lahko le prijavljeni uporabniki

Najbolj brano

 
  • Polja označena z * je potrebno obvezno izpolniti
  • Pošlji