HomeRicerca e SviluppoNuove linee guida UE per un'intelligenza artificiale etica

Nuove linee guida UE per un’intelligenza artificiale etica

Leggi le riviste ⇢

Ti potrebbero interessare ⇢

La Redazione

La Commissione ha presentato le prossime misure per rafforzare la fiducia nell'intelligenza artificiale.

Basandosi sul lavoro del gruppo di esperti indipendenti nominati nel giugno 2018, la Commissione ha avviato una fase pilota per garantire che le linee guida etiche per lo sviluppo e l'utilizzo dell'intelligenza artificiale (AI) possano essere attuate nella pratica. La Commissione invita l'industria, gli istituti di ricerca e le autorità pubbliche a testare l'elenco dettagliato di valutazione redatto dal gruppo di esperti di alto livello, che integra le linee guida.

I piani di oggi sono un risultato in linea con la strategia di AI dell'aprile 2018, che mira ad aumentare gli investimenti pubblici e privati ​​per almeno 20 miliardi di euro all'anno nel prossimo decennio, rendendo disponibili più dati, promuovendo talenti e garantendo la fiducia.

L'intelligenza artificiale può avvantaggiare un'ampia gamma di settori, come l'assistenza sanitaria, il consumo di energia, la sicurezza delle automobili, l'agricoltura, i cambiamenti climatici e la gestione dei rischi finanziari. L'intelligenza artificiale può anche aiutare a rilevare le frodi e le minacce alla cibersicurezza e consente alle autorità di combattere la criminalità in modo più efficiente. Tuttavia, l'Intelligenza Artificiale porta anche nuove sfide per il futuro del lavoro e solleva questioni legali ed etiche.

La Commissione sta adottando un approccio in tre fasi: definizione dei requisiti chiave per un'intelligence artificiale affidabile, avvio di una fase pilota su vasta scala per il feedback delle parti interessate ed elaborazione di un consenso internazionale per l'intelligenza artificiale umano-centrica.

Sette elementi essenziali per ottenere un'intelligenza artificiale affidabile

L'Intelligenza Artificiale affidabile deve rispettare tutte le leggi e i regolamenti applicabili, nonché una serie di requisiti; elenchi di valutazione specifici mirano a contribuire a verificare l'applicazione di ciascuno dei requisiti chiave:

  • Dignità e supervisione umana: i sistemi di Intelligenza Artificiale dovrebbero supportare una società equa sostenendo la capacità umana e i diritti fondamentali, e non diminuire, limitare o fuorviare l'autonomia umana.
  • Robustezza e sicurezza: l'Intelligenza Artificiale degna di fiducia richiede che gli algoritmi siano sicuri, affidabili e robusti per affrontare errori o incoerenze durante tutte le fasi del ciclo di vita dei sistemi di Intelligenza Artificiale.
  • Privacy e governance dei dati: i cittadini dovrebbero avere il pieno controllo dei propri dati, mentre i quelli che li riguardano non saranno utilizzati per danneggiarli o discriminarli.
  • Trasparenza: la tracciabilità dei sistemi di Intelligenza Artificiale dovrebbe essere garantita.
  • Diversità, non discriminazione ed equità: i sistemi di Intelligenza Artificiale dovrebbero considerare l'intera gamma di capacità, abilità e requisiti umani e garantire l'accessibilità.
  • Benessere sociale e ambientale: i sistemi di Intelligenza Artificiale dovrebbero essere utilizzati per migliorare i cambiamenti sociali positivi e migliorare la sostenibilità e la responsabilità ecologica.
  • Responsabilità: dovrebbero essere messi in atto meccanismi per garantire responsabilità e affidabilità per i sistemi di Intelligenza Artificiale e i loro risultati.

Fase pilota su larga scala con partner

Nell'estate 2019, la Commissione avvierà una fase pilota che coinvolgerà un'ampia gamma di parti interessate. Già oggi aziende, amministrazioni pubbliche e organizzazioni possono iscriversi all'Alleanza europea AI e ricevere una notifica all'avvio del pilota.

Inoltre, i membri del gruppo di esperti di alto livello dell'Intelligenza Artificiale contribuiranno a presentare e spiegare le linee guida alle parti interessate negli Stati membri.

Costruire un consenso internazionale per l'intelligenza artificiale umano-centrica

La Commissione vuole portare questo approccio etico all'intelligenza artificiale a livello globale perché tecnologie, dati e algoritmi non conoscono frontiere. A tal fine, la Commissione rafforzerà la cooperazione con partner affini come il Giappone, il Canada o Singapore e continuerà a svolgere un ruolo attivo nelle discussioni e nelle iniziative internazionali, tra cui il G7 e il G20. La fase pilota coinvolgerà anche aziende di altri paesi e organizzazioni internazionali.

Nuove linee guida UE per un’intelligenza artificiale etica - Ultima modifica: 2019-04-10T10:05:00+02:00 da La Redazione