Intelligenza artificiale, Italia punta a mediazione globale tra regole e innovazione

La governance dell’intelligenza artificiale rappresenta una delle principali sfide geopolitiche del decennio, con l’Italia che mira a svolgere un ruolo di collegamento tra diverse visioni internazionali. Alfredo barachini, sottosegretario alla presidenza del consiglio con delega all’informazione, ha definito “prioritario” il confronto multilaterale durante un recente intervento, sottolineando come la natura transnazionale della tecnologia richieda regole condivise. La dichiarazione arriva mentre l’unione europea ha appena adottato l’ai act, primo quadro normativo continentale basato su un sistema di rischio graduato per le applicazioni ia.
Il dibattito si intensifica in vista del vertice g7 sotto presidenza italiana nel 2024, dove la regolamentazione tecnologica sarà tra i temi centrali. Secondo analisti del centro studi di politica internazionale, la frammentazione degli standard rischia di creare asimmetrie competitive: mentre l’ue punta su regole vincolanti con divieti per applicazioni ritenute pericolose, gli Stati uniti preferiscono linee guida flessibili basate sull’autoregolamentazione delle big tech. La Cina, dal canto suo, sviluppa un modello incentrato sul controllo statale e standard tecnologici autonomi.
Barachini ha evidenziato la necessità di trovare equilibri tra innovazione e tutele, citando come esempio critico il caso delle deepfake. L’unione europea imporrà l’etichettatura obbligatoria dei contenuti generati da ia a partire dal 2026, ma senza coordinamento globale queste misure potrebbero rivelarsi inefficaci contro minacce transnazionali come la disinformazione. Un rapporto dell’ocse stima che il 60% dei contenuti fraudolenti ha già origine oltre i confini nazionali.
Le imprese tecnologiche italiane, tra cui leonardo e stmicroelectronics, seguono con attenzione l’evoluzione normativa. Secondo dati di confindustria digitale, il settore ia nazionale vale 850 milioni di euro con una crescita del 22% annuo, ma rischia di subire contraccolpi da regolamenti eccessivamente stringenti. D’altro canto, organizzazioni come algorithmwatch evidenziano rischi di discriminazione algoritmica, citando casi di pregiudizi razziali in sistemi di reclutamento automatizzati testati in Europa.
Il nodo principale rimane la creazione di meccanismi di governance internazionali. Alcuni esperti propongono modelli ispirati all’iaea per il nucleare, ma incontrano resistenze da chi teme processi decisionali troppo burocratizzati. Intanto, il dipartimento di stato usa ha annunciato investimenti per 1,5 miliardi in ricerca su ia sicura, mentre pechino ha lanciato 15 zone pilota per testare regolamenti locali. L’Italia, incaricata di mediare nel g7, dovrà conciliare queste posizioni divergenti con le istanze europee di tutela dei diritti fondamentali.
Punti chiave:
- points