Statele Unite vor testa modelele de Inteligență Artificială înainte de lansare
Un acord semnat între autoritățile americane și gigantii tech Google, Microsoft și xAI prevede analizarea riscurilor asociate noilor sisteme AI, inclusiv securitatea cibernetică, biosecuritatea și potențiala utilizare în dezvoltarea armelor chimice.
Conform informațiilor transmise de CAISI, evaluările vor implica teste tehnice, cercetare comună și elaborarea unor bune practici pentru dezvoltarea modelelor comerciale de inteligență artificială. Chris Fall, directorul CAISI, a subliniat importanța măsurătorilor independente și riguroase pentru înțelegerea impactului AI asupra securității naționale.
Decizia reprezintă o schimbare semnificativă de abordare pentru administrația Trump, care până acum a promovat ideea că reglementările excesive ar putea încetini inovația americană și ar putea oferi avantaje strategice Chinei.
Microsoft și OpenAI au confirmat că vor testa modele de securitate cibernetică în colaborare cu guvernul american. Microsoft va evalua riscurile asociate platformei Copilot, inclusiv potențiale atacuri cibernetice bazate pe AI, în timp ce OpenAI a furnizat modelul ChatGPT5.5 pentru testare de securitate națională. De asemenea, OpenAI dezvoltă GPT-5.5-Cyber, un model specializat în apărare cibernetică destinat unui grup restrâns de utilizatori instituționali.
CAISI a efectuat până în prezent aproximativ 40 de evaluări pentru modele AI, inclusiv pentru sisteme de ultimă generație care nu au fost încă lansate public. Cu toate acestea, autoritățile americane nu au dezvăluit detalii despre modelele testate sau modificările convenite în noile acorduri semnate cu industria tech.
Analiștii consideră că această inițiativă reflectă îngrijorările tot mai evidente ale Washingtonului privind impactul strategic și militar al inteligenței artificiale, în contextul competiției tehnologice dintre Statele Unite și China.
