La startup di Sam Altman ha deciso di rilasciare il suo ultimo modello GPT-5.4-Cyber solo a un gruppo di esperti, affinché i suoi rischi vengano mitigati. Stessa scelta ha fatto Anthropic. Le Big Tech pongono l’accento sui pericoli dell’IA, ma hanno bisogno che la politica li supporti
Dopo Anthropic, OpenAI. La startup di Sam Altman ha deciso di rilasciare il suo nuovo modello di intelligenza artificiale, incentrato sulla cybersicurezza, solamente a un gruppo di soggetti specializzati. GPT-5.4-Cyber è capace di “offrire capacità cyber aggiuntive ed è soggetta a meno restrizione”, si legge sul blog dell’azienda. “Poiché questo modello è più permissivo, iniziamo con un rilascio limitato a fornitori di sicurezza, organizzazioni e ricercatori approvati”. Faranno parte del programma Trusted Access for Cyber (TAC), già introdotto all’inizio di febbraio per il modello GPT-5.3-Codex. Per ottenere l’accesso, agli utenti singoli viene richiesta l’identità mentre alle aziende di sottoscrivere un modulo che ricevono da OpenAI.
Impossibile non avanzare un paragone con il modello di Anthropic. Anche l’azienda di Dario Amodei ha di recente deciso di non rilasciare a tutti il modello Mythos. Mentre lo testavano, gli sviluppatori si sono resi conti della potenza dello strumento, ben al di là delle competenze per cui è stato addestrato. Mythos è in grado di scovare vulnerabilità “zer-day” – quindi sfruttabili fin da subito – vecchie di decenni in sistemi altamente sofisticati e considerati sicuri. Pertanto, se dovesse finire nelle mani delle persone sbagliate, i rischi che potrebbe provocare alla sicurezza nazionale sono enormi. Basti pensare alle varie infrastrutture critiche, già sotto attacco degli hacker, che potrebbero essere del tutto bloccate da remoto. Motivo per cui è stato deciso di rilasciare una versione del modello solo a un gruppo di aziende altamente specializzate capaci di governarlo, che faranno parte del Project Glasswing, un’alleanza difensiva di Big Tech.
Le vicende pongono ancora una volta l’accento sulle preoccupazioni che lo stesso settore tecnologico nutre nei confronti dell’intelligenza artificiale. Nell’ultimo anno si sono moltiplicati gli appelli alla cautela, pur ricordando che il progresso porta con sé dei rischi. L’importante è saperli governare e gestire, così che non possano trasformarsi in pericoli.
Da questo punto di vista, Mythos sarebbe il perfetto alleato per proteggersi dai malintenzionati. Il modello potrebbe far compiere grandi passi in avanti a settori chiave – quello idroelettrico e del gas, per dirne un paio – che negli anni non si sono aggiornati a sufficienza. Per cui è naturale che anche l’amministrazione di Donald Trump sia interessata a capire meglio le funzioni di questo modello.
C’è però un problema, sottolineato da Axios. Il governo ha infatti tagliato molti fondi alla Cybersecurity and Infrastructure Security Agency, l’agenzia federale per la sicurezza informatica. La stessa che dovrebbe capire in che modo Mythos può essere utilizzato dalle aziende che gestiscono le infrastrutture strategiche, così che possano aumentare le proprie difese. Adesso si ritrova con meno finanziamenti, meno personale e meno risorse, quando invece dovrebbe svolgere un ruolo centrale di coordinamento, per trasformare le discussioni in azioni concrete. Gli hacker di certo non aspettano i tempi della politica. Anzi, li sfruttano a proprio favore.















