Intelligenza Artificiale ad approccio statistico

L’Help Desk è una risorsa importante per tutte le aziende, volta a fornire assistenza, supporto tecnico o informativo all’utente. Pigro ha sviluppato una tecnologia per estrarre automaticamente dalla Knowledge Base aziendale i contenuti più pertinenti, semplificando il lavoro dell’area Help Desk e Customer Service.

Pigo
AI Artificial Intelligence
Statistical approach

Indice dei contenuti

Intelligenza artificiale significato

Definizione intelligenza artificiale

In generale, l’IA Intelligenza Artificiale può essere definita come un ramo della Computer Science focalizzata sulla creazione di macchine intelligenti che pensano e reagiscono come gli esseri umani.

Ma il concetto di Intelligenza artificiale è molto ampio e, in letteratura, sono numerose le definizioni che cercano di spiegare cos’è l’AI – Intelligenza Artificiale.

A sistematizzare le numerose descrizioni hanno pensato Stuart Russel e Peter Norvig, individuando e sistemandole in quattro categorie:

– sistemi che pensano come gli esseri umani;

– sistemi che pensano in modo razionale;

– sistemi che agiscono come gli esseri umani;

– sistemi che agiscono in modo razionale.

Secondo gli autori, queste categorie coincidono con differenti fasi dell’evoluzione storica dell’A.I., partendo dagli anni ‘50 fino ad oggi.

Jerry Kaplan, nel suo libro “Intelligenza artificiale. Guida al futuro prossimo”, concorda con la molteplicità di definizioni che sin dagli albori ruotano attorno all’intelligenza artificiale AI, ma rileva un elemento che le accomuna tutte: “creare programmi informatici o macchine capaci di comportamenti che riterremmo intelligenti se messi in atto da essere umani”.

Tipi di intelligenza artificiale

Stando alla classificazione europea, esistono due tipologie di intelligenza artificiale: software e intelligenza incorporata.

Per software si intendono:

  • assistenti virtuali: sono software che, interpretando il linguaggio naturale, possono dialogare con umani. Gli scopi possono essere molteplici, dal fornire informazioni a svolgere determinate funzioni;
    – software di analisi di immagini: utilizzati soprattutto nel settore security, medico, biomedico e aerospaziale;
    motori di ricerca: programmi accessibili da opportuni siti che permettono di individuare informazioni alle quali l’utente potrebbe essere interessato;
    sistemi di riconoscimento vocale e facciale: software che si avvalgono di dati biometrici per il riconoscimento.

L’intelligenza incorporata, invece, include:

robot: dispositivo programmabile, meccanico ed elettronico, che può essere impiegato in sostituzione all’uomo per l’esecuzione di mansioni ripetitive o pericolose:
veicoli autonomi: in grado di eguagliare in modo automatico le principali capacità di trasporto di una macchina tradizionale;
droni: velivolo comandato a distanza in grado di rilevare informazioni;
– l’internet delle cose (Internet of Things – IoT): una rete di oggetti in grado di comunicare e dotati di tecnologie di identificazione.


AI Story

La storia

Anni ‘50

Test di Turing

La storia dell’intelligenza artificiale non ha inizio con l’invenzione del termine, ma un decennio prima, grazie agli esperimenti del matematico Alan Turing.

Turing nel 1950 scrive un articolo dal titolo “Computing machinery and intelligence” con lo scopo di affrontare il tema dell’AI, all’epoca poco conosciuta a tal punto da non avere neppure un nome. Il termine “Intelligenza Artificiale” nascerà, infatti, solo sei anni dopo.

Con lo scopo di analizzare intelligenza artificiale e intelligenza umana crea il “Test di Turing” o “Imitation game”: il test si compone di tre partecipanti dei quali uno, ad un certo punto, viene sostituito da una macchina, all’insaputa degli altri due. L’obiettivo è constatare se i partecipanti “umani” siano in grado di rendersi conto di aver a che fare con una macchina.

John McCarthy e l’intelligenza artificiale

Per quanto le basi dell’AI fossero già state poste da Alan Turing, solo con John McCarthy questo settore di ricerca ha finalmente un nome: “intelligenza artificiale”.

Lo utilizza la prima volta in occasione di una conferenza sul tema tenuta a Dartmouth nel 1956 nella quale emerge la necessità di un nome che differenzi l’AI dalla già nota cibernetica.

Viene realizzato un documento dal titolo “proposta di Dartmouth” in cui, per la prima volta, viene utilizzato il termine “intelligenza artificiale”.

Post-Dartmouth

La conferenza di Dartmouth scatena interesse ed entusiasmo nei confronti di questa nuova area di ricerca e in molti investono nel settore e studiano la materia.

Tra questi c’è Arthur Samuel, informatico statunitense, che nel 1959 realizza il “gioco di dama”, un programma creato per auto-apprendere fino a superare le abilità degli umani.

Analizzando le possibili mosse in ogni momento della partita, la “mente artificiale” da lui progettata è in grado di basare le sue decisioni su una grossa quantità di variabili e informazioni, che la rendono migliore degli altri giocatori.

Ma questo non è l’unico contributo che Arthur Samuel ha dato all’Intelligenza artificiale: per dare un nome alle sue invenzioni, conia anche il termine “machine learning”.

Anni ‘60

Il machine learning

Il machine learning nasce storicamente nel 1943, ad opera di Warren McCullock e Walter Pitts, che si accorgono di come il cervello inviasse segnalazioni digitali e, precisamente, binarie (Kaplan, 2017).

Frank Rosenblatt, psicologo, riprende i risultati dei due studiosi implementandoli e realizzando Perceptron, un dispositivo elettronico in grado di mostrare capacità di apprendimento.

Alla prima ondata di entusiasmo, però, ne segue una di stallo, in cui la ricerca sull’intelligenza artificiale viene interrotta e gli investimenti crollano. Perché il campo di ricerca torni a destare interesse è necessario aspettare gli anni ‘80 e le reti neurali non lineari.

Anni ‘70

I sistemi esperti

Con gli anni ‘70 arrivano i sistemi esperti, nati con lo scopo di sostituire “artificialmente” una persona esperta in un determinato campo.

L’Intelligenza Artificiale, infatti, è in grado di rilevare soluzioni specifiche ad un problema, senza dover consultare una persona esperta del settore.

Ma come funzionano i sistemi esperti?

Sono composti da tre sezioni:

1. knowledge base: una base di conoscenza in cui sono presenti tutte le informazioni necessarie al sistema per risolvere un problema;
2. motore inferenziale: informazioni più specifiche relative al funzionamento della base di conoscenza;
3. interfaccia utente: è grazie ad essa che l’interazione tra programma e umano può avvenire.

Anni ‘80

I sistemi esperti di seconda generazione

Con gli anni ‘70 aumenta la produzione di mini computer che iniziano ad essere presenti in numerose aziende. Di conseguenza anche i documenti creati crescono esponenzialmente, rilevando così la necessità di strumenti per organizzarli e rendere le informazioni ricercabili.

In questo periodo nascono i sistemi esperti di seconda generazione che si distinguono da quelli di programmazione in quanto “L’approccio comune alla programmazione richiedeva che lo stesso programmatore fosse un esperto dell’ambito di competenza del programma, e che fosse sempre prontamente disponibile per effettuare le modifiche […]. Al contrario, il concetto dietro ai sistemi esperti era rappresentare esplicitamente la conoscenza dell’ambito, rendendola disponibile per analisi e modifiche”.

Gli inverni dell’AI

Nel 1984 abbiamo la nascita di un nuovo termine: “AI winter” ovvero “inverno dell’AI”. Già dal nome si intuisce che si tratta di un periodo di raffreddamento, in cui si assiste ad un calo di investimenti e ricerche nel settore.

Alcuni esempi sono:

– metà anni ‘60: gli investimenti in AI vengono bloccati dagli Stati Uniti a seguito di una perdita di sfiducia nel campo di ricerca;

– 1987: l’agenzia governativa del Dipartimento della Difesa degli Stati Uniti (DARPA), blocca gli investimenti estromettendo l’Intelligenza Artificiale dai settori riconosciuti come promettenti.

Però, come ogni stagione, anche gli inverni finiscono e, con gli anni ‘90, arrivano nuove innovazioni e nuovi investimenti, che gettano le basi per il futuro dell’Artificial Intelligence.

Anni ‘90

Deep Blue

È il 1996 e a Philadelphia si sta tenendo una partita di scacchi. Uno dei due giocatori è il campione del mondo Garri Kimovič Kasparov, noto per essere il più giovane ad aver conquistato il titolo, a 22 anni e 210 giorni.

Fino a qui, niente di particolare, se non fosse che l’altro giocatore “Deep Blue” è un computer, progettato da IBM per giocare a scacchi.

La sfida viene vinta da Kasparov ma la rivincita non tarda ad arrivare: l’anno successivo infatti Deep Blue, dopo un aggiornamento, riesce a superare il campione mondiale, aggiudicandosi la vittoria.

Il progetto originale risale al decennio precedente, al 1985, quando lo studente Feng-hsiung Hsu progetta per la tesi di laurea una macchina per giocare a scacchi, chiamata ChipTest.

Nel 1989 a questo progetto si aggiunge Murray Campbell, suo compagno di classe, e altri scienziati informatici, tra cui Joe Hoane, Jerry Brody e CJ Tan.

Il giocatore di scacchi apre la strada a una vasta gamma di possibili campi di utilizzo: la ricerca ha infatti permesso agli sviluppatori di comprendere i modi in cui progettare un computer per risolvere problemi complessi utilizzando una conoscenza approfondita volta ad analizzare un numero sempre crescente di soluzioni possibili.

Una vittoria così rivoluzionaria genera immancabilmente anche numerose critiche relative a cosa significhi la supremazia umana sulle macchine e che cosa essa comporti.

Si cerca inoltre di minimizzare l’evento, concentrandosi principalmente sul “ruolo del supercomputer progettato per il compito, più che sulle sofisticate tecniche usate dal team dei programmatori” (Kaplan, 2017).

AI debole e AI forte

Già noto agli studiosi, negli anni ‘90 si accende ulteriormente il dibattito tra Intelligenza Artificiale debole e Intelligenza Artificiale forte.
La mente umana inizia ad essere vista come qualcosa di programmabile e pertanto sostituibile da una macchina.

Vediamo insieme le caratteristiche dell’IA debole e forte e le principali differenze.

AI debole (weak AI)

L’A.I. – Intelligenza Artificiale debole simula il funzionamento di alcune funzioni cognitive umane ed è connessa all’adempimento di un compito ben preciso (Russel e Norvig, 2003);

Ma l’obiettivo non è quello di eguagliare e superare l’intelligenza umana, quanto invece di agire come un soggetto intelligente, senza che abbia alcuna importanza se lo è davvero.

La macchina infatti non è capace di pensare autonomamente, rimanendo vincolata alla presenza dell’uomo.

AI forte (strong AI)

Secondo John Searle, filosofo del linguaggio e della mente “il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, un computer programmato opportunamente è davvero una mente”.

L’A.I. – Intelligenza Artificiale forte, infatti, emula in modo più completo il funzionamento della mente umana, risultando autonoma e in grado di agire come un essere umano (Russel e Norvig, 2003).

La tecnologia utilizzata è quella dei sistemi esperti di cui abbiamo parlato nel capitolo degli anni ‘80.

Intelligenza artificiale oggi - Una questione etica

È da sempre oggetto di dibattito pubblico la definizione di quale sia il confine che l’Intelligenza artificiale deve rispettare.

La paura che si sostituisca all’uomo, che la tecnologia si ribelli e altri scenari apocalittici sono la trama di numerosi film sull’argomento che portano l’Intelligenza Artificiale ad essere vista come qualcosa da temere.

Per dettare dei margini alla dimensione etica dell’AI è scesa in campo l’Unione Europea che nel 2019 ha emanato il Codice Etico, contenente le linee guida su utilizzo e sviluppo di sistemi di Intelligenza Artificiale.

Il documento pone l’uomo al centro e definisce come scopo dell’utilizzo dell’AI l’aumento del benessere e la garanzia di libertà.

I punti principali del Codice sono:

controllo e supervisione umana: l’Intelligenza Artificiale deve essere utilizzata per apportare benefici alla vita dell’uomo. Pertanto possono essere sviluppati solo sistemi che tutelino i diritti fondamentali e che permettano all’uomo la totale gestione e supervisione;

Sicurezza: la sicurezza non deve mai essere messa in pericolo, in nessuna fase del ciclo di vita del sistema;

Privacy: in caso di utilizzo di dati personali, i soggetti coinvolti devono essere informati, nel massimo rispetto della normativa UE sulla privacy;

 Tracciabilità: tutti i dati utilizzati devono essere tracciati e documentati;

Assenza di discriminazione: i sistemi di Intelligenza Artificiale devono garantire l’accessibilità a tutti e il rispetto delle diversità;

Cambiamento ambientale: l’AI deve sostenere i cambiamenti climatici positivi;

Responsabilità: nell’utilizzo dei dati devono essere adottati meccanismi di responsabilità relativi agli algoritmi utilizzati, con lo scopo di minimizzare eventuali impatti negativi.


AI and statistical approach

AI e statistical approach

Machine learning - cos’è

Come è già emerso nel capitolo riservato alla storia dell’intelligenza artificiale, il machine learning nasce nel 1943, anche se solo negli anni ‘80 diviene un autorevole campo di ricerca attraverso lo sviluppo delle prime reti neurali non lineari.

Ma cos’è il machine learning? Fin dagli albori dell’AI gli studiosi hanno compreso l’importanza della capacità di apprendere, e di come questa dovesse essere “insegnata” alle nuove tecnologie.

Ma l’apprendimento non deriva solo dallo studio e dal ragionamento, bensì anche dall’esperienza, dalla pratica e dall’allenamento. “Dire che qualcosa è stato appreso non significa solo che quel qualcosa è stato afferrato e immagazzinato, come accade ai dati in un database – deve essere rappresentato in un qualche modo che possa essere messo in uso” (Kaplan, 2017).

Il concetto va, infatti, oltre la mera raccolta e analisi dei dati, riconducibili alla statistica, utilizzando tecniche computazionali che imitano il cervello umano e i suoi processi.

Il machine learning si basa sulle grandi quantità di dati e, piuttosto che fare ipotesi, permette al sistema di apprendere da essi.

Le reti neurali

Uno degli approcci all’apprendimento automatico è quello che utilizza le reti neurali, ovvero modelli computazionali composti da “neuroni” che, come dice il nome, si ispirano ai neuroni biologici.
Seguendo questo approccio, gli elementi fondamentali dei sistemi di apprendimento automatico sono:

Reti neurali: che connettono i vari neuroni;
Neuroni: modelli che cercano di rilevare gli aspetti più importanti del funzionamento neuronale;
Modello di apprendimento: l’organizzazione delle reti, volta all’esecuzione di un compito.

L’apprendimento supervisionato, non supervisionato e per rinforzo

Anche l’apprendimento può essere di varie tipologie:

  • – Apprendimento supervisionato: ha come scopo quello di istruire un sistema per renderlo “capace” di elaborare previsioni automaticamente; 
  • – Apprendimento non supervisionato: fornisce al sistema alcuni input che verranno organizzati e classificati con l’obiettivo di effettuare ragionamenti su di essi, per poter realizzare previsioni sugli input successivi. 

– Apprendimento per rinforzo: ha lo scopo di realizzare agenti autonomi e renderli in grado di scegliere quali azioni compiere per il raggiungimento di determinati obiettivi, attraverso l’interazione con l’ambiente.

Dati, informazioni, conoscenza

Per comprendere meglio l’ampio campo del machine learning è importante definire meglio cosa sono i dati, in cosa si differenziano dalle informazioni e dalla conoscenza.

Che cosa sono i dati? Essi sono una rappresentazione oggettiva (e quindi non interpretata) della realtà analizzata.

Ma il processo non si ferma qui: una volta rilevati è necessario darne una interpretazione. A quelli a disposizione viene attribuito un significato, passando così dal dato all’informazione. 

Perchè queste informazioni diventino conoscenza bisogna attendere un altro passaggio: scegliere come utilizzarle e, in base a quanto emerge, prendere decisioni.

Dati strutturati e non strutturati

Come abbiamo visto nel paragrafo precedente, una corretta rilevazione dei dati è fondamentale per arrivare all’informazione e poi alla conoscenza.

Ne esistono tre tipologie:

  • – dati strutturati: sono costituiti solitamente da numeri e testo e presentati in un formato leggibile, organizzati in schemi e tabelle e conservati in database;
  • – dati non strutturati: non hanno alcuno schema e pertanto non hanno un modello predefinito. Immagini, audio e video sono alcuni esempi di dati non strutturati;

– dati semi-strutturati: è un mix delle due tipologie presentate precedentemente.

Modelli ad approccio statistico - NLP Natural Lanaguage Processing

Il Natural Language Processing, o elaborazione del linguaggio naturale, è una branca dell’Intelligenza Artificiale che si occupa di analizzare e comprendere il linguaggio umano, definito linguaggio naturale. Per farlo unisce linguistica, informatica e tecnologia AI. 

Fino agli anni Ottanta, gli studi sull’NLP hanno tentato di riportare le regole del linguaggio naturale all’interno dei computer, ma con scarsi risultati: era impossibile infatti gestire la complessità lessicale, sintattica e semantica della lingua.

Negli anni Novanta nasce il primo approccio statistico, che si basa sul machine learning, cioè sull’apprendimento da dati, e che permette di utilizzare una grande quantità di dataset proprio per allenare i sistemi a interpretare i vari significati del linguaggio umano. 

In seguito, negli anni 2000, vi sono state le prime applicazioni di reti neurali ai modelli NLP, portando lo sviluppo intelligenza artificiale ad un livello superiore. Grazie all’utilizzo di algoritmi di deep learning (un approccio all’apprendimento automatico che sfrutta il concetto di rete neurale) sono state approfondite diverse tecniche per rappresentare ed elaborare il linguaggio naturale e permettere alle macchine di combinare le informazioni in loro possesso nel migliore dei modi, per risolvere dei compiti.

Così oggi, grazie ai dati che man mano vengono immessi nei sistemi, è possibile arricchire il modello alla loro base, migliorandone l’accuratezza ed utilizzando l’NLP per diversi scopi. Alcuni dei più diffusi sono sicuramente la ricerca di informazioni in tempo reale, chatbot e voicebot, la generazione di testo, la classificazione di documenti, la sentiment analysis, ecc.


Artificial Intelligence

Conclusioni: L’AI nella vita di tutti i giorni

Dopo aver delineato cos’è l’intelligenza artificiale, abbiamo analizzato tutti gli step che, a partire dagli anni ’50, hanno reso grande l’AI.

Questo excursus storico ci ha permesso di comprendere come l’artificial intelligence sia parte integrante della nostra quotidianità e di come l’avanzamento del progresso tecnologico abbia permesso all’AI di essere sempre più presente nella nostra vita di tutti i giorni.

Il Parlamento Europeo ha realizzato un’analisi dei principali campi in cui intelligenza artificiale e vita quotidiana si incrociano, permettendo alla tecnologia di affiancarci sempre di più:

Shopping in rete e pubblicità: l’AI, come abbiamo visto nei paragrafi precedenti, viene utilizzata anche per realizzare previsioni future, in base ai dati raccolti in precedenza. E questo viene applicato anche ai suggerimenti di prodotti, realizzati in base agli acquisti, all’intento di ricerca, ai comportamenti online e tanto altro.

Ricerche online: come per lo shopping, anche i motori di ricerca utilizzano i dati raccolti per “imparare” ciò che interessa all’utente e proporgli risultati ad esso affini;

Assistenti virtuali: con lo scopo di fornire risposte agli utenti, rispondono alle domande in modo personalizzato;

Traduzione automatica: i software di AI generano automaticamente la traduzione di testi, video e audio. L’esempio più comune sono i sottotitoli autogenerati di youtube;

Infrastrutture intelligenti: dagli strumenti tech all’interno delle case intelligenti, che apprendono i comportamenti di chi vive nell’abitazione, all’utilizzo dell’AI per migliorare la viabilità delle città;

Cyber sicurezza: utilizzo dell’intelligenza artificiale per riconoscere e bloccare le minacce informatiche, imparando dagli attacchi precedenti e come riconoscerli;

– L’intelligenza artificiale nella lotta al COVID19: l’AI per la lotta alla pandemia è stata utilizzata in svariati modi, dal controllo degli ingressi contingentati, alla rilevazione della temperatura, fino ad arrivare ad applicazioni più specifiche del sistema sanitario, come riconoscere le infezioni partendo da TAC ai polmoni;

Lotta alla disinformazione: un valido aiuto per riconoscere fake news, monitorando e analizzando i contenuti social, identificando espressioni sospette o allarmanti, volte a riconoscere fonti autorevoli. 

L’intelligenza artificiale non è presente solo nella nostra routine personale, ma anche in quella lavorativa. Sempre più aziende infatti ricorrono all’AI per offrire migliori servizi ai clienti e aumentare la produttività dei dipendenti.

Un esempio è il knowledge management, ovvero la gestione della conoscenza aziendale, che può essere implementata con sistemi di intelligenza artificiale ad approccio statistico, per permettere agli utenti di trovare più rapidamente le informazioni che stanno cercando all’interno del database aziendale.  

Un dato ormai è certo: l’AI è presente in tanti aspetti della nostra quotidianità, aumentando la nostra sicurezza e permettendoci di avere supporto in numerose attività.

Cosa ci riserverà il futuro non lo sappiamo, ma quel che è certo è che l’Intelligenza Artificiale non arresterà la sua espansione e, come abbiamo visto nel ripercorrere la storia della sua evoluzione, questa è più veloce di quello che sembra.


Fonti:

Post correlati

Shopping Basket