TEHNOLOGIE. OpenAI a dezvăluit recent modelul de inteligență artificială o1, despre care compania avertizează că poate prezenta „un risc mediu” de a fi folosit în scopuri rău intenționate, inclusiv pentru crearea armelor biologice, radiologice sau nucleare. Potrivit unui raport al Financial Times, fișa tehnică a modelului arată că acesta poate furniza informații detaliate despre furnizori specifici și planuri de distribuție, ceea ce poate facilita dezvoltarea de amenințări.
Experții din domeniul CBRN (chimic, biologic, radiologic, nuclear) subliniază că, odată cu avansarea inteligenței artificiale, crește semnificativ și riscul de utilizare abuzivă, în special pentru crearea de arme devastatoare. În California, a fost deja propus un proiect de lege (SB 1047), care ar putea obliga companiile să adopte măsuri de siguranță pentru a preveni astfel de scenarii.
Cu toate acestea, OpenAI insistă că a luat măsuri pentru a preveni utilizarea necorespunzătoare a noului model. Directorul tehnologic al companiei a declarat că modelul a fost testat de specialiști din diverse domenii științifice, care au concluzionat că riscurile nu depășesc ceea ce este deja posibil cu tehnologia existentă.
Modelul o1 este conceput pentru a rezolva probleme complexe în logică, IT și matematică, deși necesită un timp mai lung de procesare a răspunsurilor. OpenAI a anunțat că va fi disponibil la scară largă pentru abonații ChatGPT săptămâna viitoare, însă lansarea ridică îngrijorări majore legate de siguranță și reglementare în domeniul AI.
Lasă un comentariu