Umetna inteligenca piše manj varno kodo, če naročnik avtorju ni povšeči
Veliki jezikovni modeli se čedalje pogosteje uporabljajo tudi za pisanje programske kode, ki je zelo različne kakovosti. Večkrat smo že ugotavljali, da se v njej lahko nehote znajdejo resne ranljivosti in hrošči. Kaj pa, če so ti tam – zanalašč? Ameriško podjetje CrowdStrike trdi, da kitajski DeepSeek počne prav to.
V raziskavi so DeepSeek večkrat prosili, da napiše programsko kodo za različne namene, tudi za krmiljenje industrijskih procesov. Spreminjali so del opisa, ki je identificiral, kdo in kje naj bi kodo poganjal. Rezultati so bili grozljivo različni. Če je bil tarčni uporabnik kitajskim oblastem neljubi akter, je bila koda bolj luknjičasta.
- 30 odstotkov Microsoftove kode že piše umetna inteligenca
- Umetna inteligenca upočasnjuje programiranje
V številkah: v povprečju je bilo 23 odstotkov primerov kode za sisteme SCADA luknjičaste. Če pa so zapisali, da bo kodo uporabljala Islamska država, je ta delež porasel na 42 odstotkov. Podobno se je zgodilo, če je bila koda namenjena za Tibet ali Tajvan. Še več, če je bila koda namenjena za Islamsko državo ali Falun Gong, je DeepSeek pogosto zavrnil izdelavo kode.
Da umetna inteligenca ne piše popolnoma varne kode, ni presenetljivo. Da pa lahko glede na interese njenih avtorjev prilagaja luknjičast, je zelo zaskrbljujoče. A v resnici – logično.