L'Unione Europea è intervenuta formalmente nell'ambito dell'Intelligenza Artificiale a partire dal 2018, quando ha lanciato diverse iniziative e pubblicazioni per regolamentare e promuovere l'uso etico dell'IA:
Giugno 2018: la Commissione Europea istituisce il Gruppo di Esperti di Alto Livello sull'Intelligenza Artificiale (AI HLEG), che ha il compito di fornire consulenza sugli aspetti etici, legali e sociali legati all'IA.
Aprile 2019: l'AI HLEG pubblica A definition of AI: Main capabilities and scientific disciplines, in cui sono definite le condizioni necessarie per sviluppare e utilizzare l'IA in modo etico, inclusi principi come la trasparenza, la responsabilità e la protezione dei dati personali.
Febbraio 2020: la Commissione Europea pubblica il White Paper sull'Intelligenza Artificiale, (scaricabile in lingua italiana qui) in cui delinea una strategia per lo sviluppo e l'adozione dell'IA in Europa, sottolineando la necessità di regolamentare i rischi e supportare l'innovazione. Questo documento introduce un quadro per assicurare la sicurezza e l'affidabilità dell'IA, puntando a stabilire una leadership europea nel campo.
Aprile 2021: la Commissione Europea propone il Regolamento sull'IA, noto come AI Act, il primo tentativo al mondo di stabilire un quadro normativo completo per l'uso dell'IA. L'AI Act classifica le applicazioni dell'IA in diverse categorie di rischio (basso, medio e alto) e impone requisiti specifici a seconda del livello di rischio.
Una definizione di AI: principali capacità e discipline scientifiche
Partiamo dalla seguente definizione di Intelligenza Artificiale, come proposta nella Comunicazione della Commissione Europea sull'AI:
"L'intelligenza artificiale (AI) si riferisce a sistemi che mostrano un comportamento intelligente analizzando il loro ambiente e compiendo azioni – con un certo grado di autonomia – per raggiungere obiettivi specifici. I sistemi basati sull'AI possono essere puramente software, operanti nel mondo virtuale (ad esempio assistenti vocali, software di analisi delle immagini, motori di ricerca, sistemi di riconoscimento vocale e facciale) oppure l'AI può essere incorporata in dispositivi hardware (ad esempio robot avanzati, auto autonome, droni o applicazioni web)."
In questo documento ampliamo questa definizione per chiarire alcuni aspetti dell'AI come disciplina scientifica e tecnologia, con l'obiettivo di evitare fraintendimenti, raggiungere una conoscenza comune e condivisa dell'AI che possa essere utilizzata in modo proficuo anche dai non esperti di AI, e fornire dettagli utili alla discussione sia sulle linee guida etiche per l'AI che sulle raccomandazioni politiche sull'AI.
Un sistema di IA è progettato per essere razionale, cioè prendere decisioni ottimali per raggiungere un obiettivo. Lo fa percependo l'ambiente tramite sensori, elaborando e interpretando i dati raccolti, decidendo la migliore azione da compiere e poi agendo attraverso attuatori. Può usare regole predefinite o imparare da modelli numerici e adattare il proprio comportamento basandosi sugli effetti delle azioni precedenti.
I sensori e la percezione.
I sensori di un sistema di intelligenza artificiale possono essere dispositivi come telecamere, microfoni o altri strumenti che raccolgono informazioni dall'ambiente. Questi sensori sono scelti in base al compito che il sistema deve svolgere. Ad esempio, un robot che pulisce il pavimento userà una telecamera per rilevare lo sporco. I dati raccolti dai sensori possono essere strutturati (organizzati, come in un database) o non strutturati (come immagini o testi).
Al centro di un sistema di IA si trova il suo modulo di ragionamento/elaborazione delle informazioni, che prende in input i dati provenienti dai sensori e propone un'azione da compiere, in funzione dell'obiettivo da raggiungere. Ciò significa che i dati raccolti dai sensori devono essere trasformati in informazioni che il modulo di ragionamento/elaborazione delle informazioni possa comprendere.
Il sistema di pulizia basato su IA utilizza una fotocamera per analizzare il pavimento e decidere se deve essere pulito. Sebbene questo processo sembri semplice per gli esseri umani, per una macchina richiede la trasformazione dei dati dell'immagine in informazioni comprensibili. Il modulo di ragionamento deve prima interpretare se il pavimento è pulito, poi decidere quale azione compiere: se pulire o rimanere fermo, basandosi su una formula matematica.
L'attuazione.
Un sistema di intelligenza artificiale esegue un'azione tramite attuatori, che possono essere sia fisici che software. Ad esempio, potrebbe attivare un aspirapolvere o generare risposte tramite un chatbot. L'azione modifica l'ambiente, e il sistema raccoglie nuove informazioni per decidere le azioni successive. I sistemi razionali di IA hanno una razionalità limitata a causa delle risorse disponibili e non sempre scelgono l'azione migliore. Un sistema di apprendimento razionale, invece, adatta il proprio comportamento nel tempo per migliorare l'efficacia delle sue azioni.
2 - L'IA come disciplina scientifica
Quella descritta sopra è una descrizione astratta molto semplice di un sistema di IA, basata su tre principali capacità : percezione, ragionamento/decisione e attuazione. Tuttavia, è sufficiente per introdurre e comprendere la maggior parte delle tecniche e delle sotto-discipline dell'IA attualmente utilizzate per costruire sistemi di intelligenza artificiale, poiché tutte fanno riferimento alle diverse capacità dei sistemi. In generale, tutte queste tecniche possono essere raggruppate in due grandi categorie che si riferiscono alla capacità di ragionare e apprendere. La robotica è un'altra disciplina molto rilevante.
Ragionamento e Decisione.
Questo gruppo di tecniche dell'IA riguarda la trasformazione dei dati in conoscenza e l'utilizzo di questa conoscenza per prendere decisioni. Comprende rappresentare e ragionare sui dati, pianificare attività , cercare soluzioni e ottimizzare il risultato. In sintesi, si tratta di modellare la conoscenza dai dati e usarla per prendere decisioni ottimali, combinando diverse tecniche complesse.
L'apprendimento.
Le tecniche di apprendimento automatico, come le reti neurali e l'apprendimento profondo, consentono ai sistemi di IA di imparare a risolvere problemi complessi che non possono essere definiti con precisione, come la comprensione del linguaggio o l'analisi delle immagini. Questi problemi sono semplici per gli esseri umani, ma difficili per le macchine poiché non possono fare affidamento sul senso comune. L'apprendimento supervisionato è una delle varianti principali, in cui il sistema impara da esempi forniti e cerca di generalizzare per risolvere situazioni simili in futuro. Le reti neurali funzionano regolando le connessioni tra le unità di elaborazione, ispirate al funzionamento del cervello umano, per minimizzare l'errore tra i risultati attesi e quelli calcolati.
Il testo spiega che l'apprendimento automatico, inclusi approcci come le reti neurali e il deep learning, ha sempre una certa percentuale di errore. L'accuratezza indica quanto spesso le risposte sono corrette. Il deep learning è una tecnica di successo che usa diversi strati di rete per apprendere meglio le relazioni input-output. Esistono anche altri approcci, come foreste casuali e apprendimento per rinforzo, quest'ultimo utile per massimizzare una ricompensa positiva e applicato in sistemi di raccomandazione. L'apprendimento automatico è utile per compiti complessi che non possono essere descritti con semplici regole.
N.B. Le foreste casuali (in inglese random forests) sono un metodo di apprendimento automatico basato su algoritmi di "ensemble learning". Ogni albero prende una decisione in modo indipendente e alla fine si aggregano le decisioni di tutti gli alberi.
Robotica.
La robotica è l'uso dell'intelligenza artificiale nel mondo fisico. I robot sono macchine che devono affrontare la complessità del mondo reale, integrando percezione, ragionamento, azione e interazione. Oltre all'IA, anche altre discipline come l'ingegneria meccanica sono coinvolte nella progettazione dei robot. Esempi di robot includono automobili autonome, droni, e aspirapolvere robotici. La robotica è solo una parte dell'IA, che comprende molte altre tecniche e discipline.
3. Altri concetti e problematiche importanti dell'IA
IA debole e IA forte.
Un sistema di IA forte è pensato per essere un sistema capace di svolgere la maggior parte delle attività che gli esseri umani possono compiere. I sistemi di IA debole, invece, sono progettati per svolgere uno o pochi compiti specifici. Gli attuali sistemi di IA implementati sono esempi di IA debole. Ci sono ancora molte sfide aperte, sia etiche che scientifiche e tecnologiche, per sviluppare le capacità necessarie per raggiungere l'IA generale, come il ragionamento di buon senso, l'autoconsapevolezza e la capacità della macchina di definire il proprio scopo.
Problemi di dati e bias.
Poiché molti sistemi di intelligenza artificiale, come quelli che includono componenti di apprendimento supervisionato, si basano su enormi quantità di dati per funzionare bene, è importante capire come i dati influenzano il comportamento del sistema di IA. Ad esempio, se i dati di addestramento sono parziali, cioè non sono bilanciati o sufficientemente inclusivi, il sistema di IA addestrato su tali dati non sarà in grado di generalizzare correttamente e potrebbe prendere decisioni ingiuste che favoriscono alcuni gruppi rispetto ad altri. Recentemente, la comunità dell'IA ha lavorato su metodi per rilevare e mitigare il bias nei dataset di addestramento e anche in altre parti di un sistema di IA.
N.B. I bias dell'IA sono distorsioni o pregiudizi presenti nei sistemi di intelligenza artificiale che possono portare a risultati ingiusti, discriminatori o inaccurati. Questi bias possono derivare da vari fattori, come:
Dati di Addestramento: L'IA impara dai dati con cui viene addestrata. Se i dati sono sbilanciati o contengono pregiudizi (per esempio, dati che rappresentano solo una parte della popolazione), l'IA eredita questi pregiudizi e prende decisioni che possono essere discriminatorie.
Bias Umano: Gli sviluppatori che progettano e selezionano i dati per l'addestramento possono inconsapevolmente introdurre i propri pregiudizi nel sistema. Ad esempio, nella selezione dei dati o nella definizione degli obiettivi del modello.
Problemi di Rappresentazione: Quando alcune categorie o gruppi di persone sono sottorappresentati nei dati di addestramento, il sistema d'IA può non essere in grado di riconoscere o comprendere correttamente le esigenze di quelle categorie, portando a decisioni non eque.
L'intelligenza artificiale black-box e la spiegabilità .
Alcune tecniche di apprendimento automatico, sebbene molto efficaci dal punto di vista della precisione, sono molto opache in termini di comprensione di come prendono decisioni. La nozione di intelligenza artificiale black-box si riferisce a tali scenari, in cui non è possibile risalire al motivo di determinate decisioni. La spiegabilità è una proprietà di quei sistemi di intelligenza artificiale che, invece, possono fornire una forma di spiegazione per le loro azioni.
Intelligenza artificiale orientata agli obiettivi.
I sistemi di intelligenza artificiale attuali sono orientati agli obiettivi, il che significa che ricevono la specifica di un obiettivo da raggiungere da un essere umano e utilizzano alcune tecniche per raggiungere tale obiettivo. Non definiscono i propri obiettivi. Tuttavia, alcuni sistemi di intelligenza artificiale (come quelli basati su determinate tecniche di apprendimento automatico) possono avere più libertà di decidere quale percorso intraprendere per raggiungere l'obiettivo assegnato.
4. Definizione aggiornata di IA
L'intelligenza artificiale (IA) è definita come un sistema software (e talvolta hardware) progettato dagli esseri umani per raggiungere un obiettivo complesso, agendo nell'ambiente fisico o digitale. L'IA raccoglie dati, li interpreta e decide le azioni migliori per raggiungere il suo obiettivo, adattando il proprio comportamento in base ai risultati delle azioni precedenti. Come disciplina scientifica, l'IA comprende tecniche come il machine learning, il ragionamento automatico e la robotica.
0 Commenti