5 Novembre 2024 19:14
Nel panorama in rapida evoluzione dell’Intelligenza Artificiale (IA), la distinzione tra “IA buona” e “IA cattiva” diventa sempre più critica, non solo su un piano tecnologico, ma anche e soprattutto su quello etico e legale.
La recente approvazione della legge sull’intelligenza artificiale dell’Unione europea (EU AI Act) è destinata a stabilire un nuovo standard globale per l’adozione responsabile dell’IA e sta sfidando le aziende e le organizzazioni di tutto il mondo a distinguere tra “Good AI” – dando priorità alla privacy e alla sicurezza – e “Bad AI” – focalizzata sullo sfruttamento dei dati-, e a trovare un equilibrio tra innovazione ed etica del progresso.
L’atto mira a proteggere i diritti dei cittadini, la democrazia e la sostenibilità ambientale dai pericoli derivanti da applicazioni errate di IA e stabilisce obblighi adeguati al livello di rischio e di impatto dei sistemi di IA, con l’obiettivo di posizionare l’Europa come leader mondiale nell’innovazione responsabile in tema di intelligenza artificiale.
Intelligenza Artificiale. La legislazione introduce divieti severi sulle applicazioni di IA ritenute dannose, come i sistemi di categorizzazione biometrica, lo scraping non mirato di immagini facciali, il riconoscimento delle emozioni nei luoghi di lavoro e nelle scuole, il social scoring e la polizia predittiva basata esclusivamente sulla profilazione.
Il documento delinea inoltre condizioni specifiche per l’uso dell’identificazione biometrica nelle forze dell’ordine e richiede trasparenza e accuratezza per i sistemi di IA ad alto rischio.
Quali i canoni da adottare nel processo di costruzione di una “buona IA”?
Le linee guida per un’IA buona: praticità e pragmatismo
La sfida della corretta implementazione dell’IA non riguarda solo il campo legislativo, ma anche i principali sviluppatori di questa tecnologia, le aziende, che si impegnano a definire roadmap aziendali di ricerca e sviluppo complete per costruire sistemi di IA in modo responsabile, affrontando i potenziali rischi in cogenza con i futuri sviluppi normativi.
È ora fondamentale che le organizzazioni considerino il ruolo della responsabilità e della governance nell’uso dei sistemi di IA, in particolare nel contesto della rapida evoluzione e adozione dell’IA generativa e dei Large Language Models (LLM), che presentano rischi specifici quali tossicità, polarità, discriminazione, eccessivo affidamento all’IA, disinformazione, privacy dei dati, sicurezza dei modelli e violazioni del copyright.
Questi rischi possono manifestarsi in diversi tipi di tecnologie di IA e variare a seconda dei casi d’uso.
Ad esempio, quando si integrano strumenti di IA nelle soluzioni per i contact center, come per la gestione della qualità, l’attenzione deve essere rivolta a migliorare responsabilmente l’esperienza degli agenti, a ridurre lo stress e a semplificare le interazioni con i clienti, e non all’intelligenza artificiale fine a sé stessa.
Gli esseri umani devono rimanere “al primo posto”.
Nell’adottare un approccio responsabile all’IA, le organizzazioni devono considerare il rispetto di criteri di implementazione chiave che promuovano gli obiettivi di affidabilità e trasparenza: l’obiettivo è costruire una “buona IA”.
Gli impatti potenziali dei sistemi di IA devono essere valutati in base ai loro effetti diretti e indiretti su individui e gruppi, considerando anche che tali effetti possono essere immediati o manifestarsi nel tempo; la responsabilità è di tutti.
Nel momento in cui le organizzazioni si muovono verso l’adozione responsabile dell’IA, devono considerare i destinatari dei modelli di IA – utenti aziendali, consumatori o individui – e soddisfare i criteri chiave di implementazione che supportano gli obiettivi di responsabilità e trasparenza.
Gli impatti potenziali dei sistemi di IA devono essere valutati in base ai loro effetti diretti e indiretti su individui e gruppi e se questi impatti sono immediati o si sviluppano nel tempo.
Dobbiamo assicurarci che le nostre soluzioni non producano intenzionalmente o indirettamente risultati che raccolgano sistematicamente dati o introducano pregiudizi, inutili polarità o disinformazione nelle interazioni personali o nei discorsi pubblici. È dovere di tutti noi costruire una buona IA.
La sfida del tempo con Intelligenza Artificiale
Oggi siamo ancora nelle fasi iniziali di comprensione dei potenziali rischi dell’IA generativa; le organizzazioni dovranno sviluppare capacità di adattamento e perfezionamento continuo delle pratiche di IA responsabile, considerando gli impatti ambientali e affrontando i modelli di terze parti.
Dovremo impegnarci a dare priorità alla privacy, alla sicurezza, alla conformità e alle pratiche di sviluppo responsabile, adottando o sviluppando il quadro più lungimirante per raggiungere questi obiettivi.
Ciò che è chiaro è che ogni azienda avrà una duplice responsabilità: sfruttare la potenza dell’IA generativa e le molte nuove opportunità che continuerà a fornire, mitigando al contempo i rischi associati alla “IA cattiva” e allineandosi agli standard globali emergenti per l’innovazione responsabile.
Articolo a cura di Josef Novak, Chief Innovation Officer di Spitch.
SLATA Studio Legale ha assistito con successo TELEBIT Spa, mandataria…
Festa della Mamma al Parkhotel Holzner: un’esperienza indimenticabile tra relax e gusto
festa della mamma dove? Al Suedtirol, Ritten, Oberbozen, Parkhotel Holzner, Pool, Mutter und Sohn,
Costa Smeralda e Luise: L’Amore Si Rinnova sulle Strade del Rally
Il pilota di Adria, accompagnato dalla moglie Melissa Ferro, si prepara con ansia per una delle gare più ambite della stagione rallystica, il Rally Costa Smeralda Storico.
Carcere come terapia: Meloni (Piazza Carceri e Sicurezza) denuncia l’utilizzo improprio delle strutture detentive
Roma, 15 aprile 2024 – Giuseppe Maria Meloni, portavoce
Nel panorama in rapida evoluzione dell’Intelligenza Artificiale (IA), la distinzione…
Il Google Dorking dimostra quanto possa essere sottile la linea tra utilizzare Google come uno strumento di ricerca potente e usarlo come strumento
Visita dei rappresentanti del governo belga in Marocco e riconoscimento…
Beura Cardezza VCO, “Tutti i costi del suolo perduto” salviamo…
Le fonti negano la partecipazione dell’Arabia Saudita nell’intercettare gli attacchi…
Un gruppo di scolari e un autista sono morti quando…