L’intelligenza artificiale ha alla sua base l’idea di sviluppare delle “macchine” dotate di capacità di apprendimento automatico e di adattamento che siano ispirate ai modelli di apprendimento umani.
L’intelligenza artificiale ha cominciato a ricevere attenzioni da parte della comunità scientifica grazie ad Alan Turing.
Egli infatti aveva proposto un test, noto come “Test di Turing”, in base al quale una macchina poteva essere definita intelligente se il suo comportamento, osservato da un essere umano, fosse stato considerato non distinguibile da quello di una persona.
Si può dunque dire che, a livello teorico, Turing sia stato il padre dell’intelligenza artificiale.
Oggi si distinguono due tipologie di intelligenza artificiale:
- 1) Intelligenza artificiale forte, secondo cui le macchine sono in grado di sviluppare una coscienza di sé, che studia sistemi in grado di replicare l’intelligenza umana;
- 2) Intelligenza artificiale debole, la quale ritiene possibile sviluppare macchine in grado di risolvere problemi specifici senza avere però coscienza delle attività svolte.
L’intelligenza artificiale studia lo sviluppo di sistemi hardware e software dotati di specifiche capacità tipiche dell’essere umano.
Tra le applicazioni dell’intelligenza artificiale c’è il Chatbot, o assistente virtuale, che è una delle soluzioni più diffuse tra le aziende italiane e internazionali. I Chatbot (es. ChatGPT) si prestano a diversi impieghi in ambito marketing, del supporto alla vendita, della gestione delle risorse umane, della domotica, della ricerca e sviluppo.
ChatGPT è il primo strumento di Intelligenza Artificiale Generativa, cioè di un tipo di intelligenza artificiale che utilizza il Machine Learning (cioè l’apprendimento automatico) per generare dei nuovi contenuti che in precedenza si basavano sulla creatività dell’uomo.
Un’altra applicazione è la Computer Vision, che studia gli algoritmi e le tecniche per permettere ai computer di raggiungere una comprensione di alto livello del contenuto di immagini o video. I progressi in questo campo hanno lasciato il passo a delle reti neurali addestrate su milioni di immagini.
Oggi sono ancora molte le problematiche etiche e legali legate all’intelligenza artificiale.
Tra i rischi dell’intelligenza artificiale derivanti dalle scelte progettuali degli sviluppatori si possono citare:
- 1) Le distorsioni involontarie che esistono nei dati e/o negli algoritmi o che possono essere introdotte da sviluppatori e utilizzatori,
- 2) Mancanza di trasparenza nei processi decisionali che caratterizzano i sistemi di intelligenza artificiale
- 3) Mancato rispetto della privacy per quanto concerne il trattamento dei dati personali degli utenti
- 4) Possibilità di creare sistemi per soddisfare scopi malevoli
Questa è una materia delicata che necessita una regolamentazione apposita.
Per tale motivo, il Parlamento Europeo il 13 marzo 2024 ha approvato l’AI Act (Artificial Intelligence Act), il primo regolamento al mondo sull’Intelligenza Artificiale con l’obiettivo di far sì che i sistemi di intelligenza artificiale che si trovano all’interno del mercato europeo siano sicuri e rispettino i diritti dei cittadini dell’UE.
Nello specifico l’AI Act prevede di classificare i sistemi di intelligenza artificiale in base al loro livello di rischio e di normare tali sistemi introducendo anche requisiti ed obblighi per la loro immissione nel mercato europeo.
Con questo regolamento l’UE si afferma come istituzione all’avanguardia nella regolamentazione dell’intelligenza artificiale.