Intelligenza Artificiale ad approccio statistico

L’Help Desk è una risorsa importante per tutte le aziende, volta a fornire assistenza, supporto tecnico o informativo all’utente. Pigro ha sviluppato una tecnologia per estrarre automaticamente dalla Knowledge Base aziendale i contenuti più pertinenti, semplificando il lavoro dell’area Help Desk e Customer Service.

Intelligenza Artificiale ad approccio statistico

L’Intelligenza Artificiale può essere utilizzata per implementare la strategia aziendale di Knowledge Management. Pigro utilizza l’AI ad approccio statistico per velocizzare la ricerca di informazioni all’interno del database aziendale, sia per i clienti che per i dipendenti.

Pigo
AI Artificial Intelligence
Statistical approach

Indice dei contenuti

Intelligenza artificiale

Definizione intelligenza artificiale

In generale, l’AI – Intelligenza Artificiale può essere definita come un ramo della Computer Science focalizzata sulla creazione di macchine intelligenti che pensano e reagiscono come gli esseri umani.

Ma il concetto di Intelligenza artificiale è molto ampio e, in letteratura, sono numerose le definizioni che cercano di spiegare cos’è l’AI.

A sistematizzare le numerose descrizioni hanno pensato Stuart Russel e Peter Norvig, individuando e sistemandole in quattro categorie:

– sistemi che pensano come gli esseri umani;

– sistemi che pensano in modo razionale;

– sistemi che agiscono come gli esseri umani;

– sistemi che agiscono in modo razionale.

Secondo gli autori, queste categorie coincidono con differenti fasi dell’evoluzione storica dell’A.I., partendo dagli anni ‘50 fino ad oggi.

Jerry Kaplan, nel suo libro “Intelligenza artificiale. Guida al futuro prossimo”, concorda con la molteplicità di definizioni che sin dagli albori ruotano attorno all’AI, ma rileva un elemento che le accomuna tutte: “creare programmi informatici o macchine capaci di comportamenti che riterremmo intelligenti se messi in atto da essere umani”.

Tipi di intelligenza artificiale

Stando alla classificazione europea, esistono due tipologie di intelligenza artificiale: software e intelligenza incorporata.

Per software si intendono:

  • assistenti virtuali: sono software che, interpretando il linguaggio naturale, possono dialogare con umani. Gli scopi possono essere molteplici, dal fornire informazioni a svolgere determinate funzioni;
    – software di analisi di immagini: utilizzati soprattutto nel settore security, medico, biomedico e aerospaziale;
    motori di ricerca: programmi accessibili da opportuni siti che permettono di individuare informazioni alle quali l’utente potrebbe essere interessato;
    sistemi di riconoscimento vocale e facciale: software che si avvalgono di dati biometrici per il riconoscimento.

L’intelligenza incorporata, invece, include:

robot: dispositivo programmabile, meccanico ed elettronico, che può essere impiegato in sostituzione all’uomo per l’esecuzione di mansioni ripetitive o pericolose:
veicoli autonomi: in grado di eguagliare in modo automatico le principali capacità di trasporto di una macchina tradizionale;
droni: velivolo comandato a distanza in grado di rilevare informazioni;
– l’internet delle cose (Internet of Things – IoT): una rete di oggetti in grado di comunicare e dotati di tecnologie di identificazione.


AI Story

La storia

Anni ‘50

Test di Turing

La storia dell’intelligenza artificiale non ha inizio con l’invenzione del termine, ma un decennio prima, grazie agli esperimenti del matematico Alan Turing.

Turing nel 1950 scrive un articolo dal titolo “Computing machinery and intelligence” con lo scopo di affrontare il tema dell’AI, all’epoca poco conosciuta a tal punto da non avere neppure un nome. Il termine “Intelligenza Artificiale” nascerà, infatti, solo sei anni dopo.

Con lo scopo di analizzare l’intelligenza artificiale e l’intelligenza umana crea il “Test di Turing” o “Imitation game”: il test si compone di tre partecipanti dei quali uno, ad un certo punto, viene sostituito da una macchina, all’insaputa degli altri due. L’obiettivo è constatare se i partecipanti “umani” siano in grado di rendersi conto di aver a che fare con una macchina.

John McCarthy e l’intelligenza artificiale

Per quanto le basi dell’AI fossero già state poste da Alan Turing, solo con John McCarthy questo settore di ricerca ha finalmente un nome: “intelligenza artificiale”.

Lo utilizza la prima volta in occasione di una conferenza sul tema tenuta a Dartmouth nel 1956 nella quale emerge la necessità di un nome che differenzi l’AI dalla già nota cibernetica.

Viene realizzato un documento dal titolo “proposta di Dartmouth” in cui, per la prima volta, viene utilizzato il termine “intelligenza artificiale”.

Post-Dartmouth

La conferenza di Dartmouth scatena interesse ed entusiasmo nei confronti di questa nuova area di ricerca e in molti investono nel settore e studiano la materia.

Tra questi c’è Arthur Samuel, informatico statunitense, che nel 1959 realizza il “gioco di dama”, un programma creato per autoapprendere fino a superare le abilità degli umani.

Analizzando le possibili mosse in ogni momento della partita, è in grado di basare le sue decisioni su una grossa quantità di variabili e informazioni, che lo rendono migliore degli altri giocatori.

Ma questo non è l’unico contributo che Arthur Samuel ha dato all’Intelligenza artificiale: per dare un nome alle sue invenzioni, inventa anche il termine “machine learning”.

Anni ‘60

Il machine learning

Il machine learning nasce storicamente nel 1943, ad opera di Warren McCullock e Walter Pitts, che si accorgono di come il cervello inviasse segnalazioni digitali e, precisamente, binarie (Kaplan, 2017).

Frank Rosenblatt, psicologo, riprende i risultati dei due studiosi implementandoli e realizzando Perceptron, un dispositivo elettronico in grado di mostrare capacità di apprendimento.

Alla prima ondata di entusiasmo, però, ne segue una di stallo, in cui le ricerche vengono interrotte e gli investimenti crollano. Perché il campo di ricerca torni a destare interesse è necessario aspettare gli anni ‘80 e le reti neurali non lineari.

Anni ‘70

I sistemi esperti

Con gli anni ‘70 arrivano i sistemi esperti, nati con lo scopo di sostituire “artificialmente” una persona esperta in un determinato campo.

L’Intelligenza Artificiale, infatti, è in grado di rilevare soluzioni specifiche ad un problema, senza dover consultare una persona esperta del settore.

Ma come funzionano i sistemi esperti?

Sono composti da tre sezioni:

1. knowledge base: una base di conoscenza in cui sono presenti tutte le informazioni necessarie al sistema per risolvere un problema;
2. motore inferenziale: informazioni più specifiche relative al funzionamento della base di conoscenza;
3. interfaccia utente: è grazie ad essa che l’interazione tra programma e umano può avvenire.

Anni ‘80

I sistemi esperti di seconda generazione
Con gli anni ‘70 aumenta la produzione di mini computer che iniziano ad essere presenti in numerose aziende. Di conseguenza anche i documenti creati crescono esponenzialmente, rilevando così la necessità di strumenti per organizzarli e rendere le informazioni ricercabili. In questo periodo nascono i sistemi esperti di seconda generazione che si distinguono da quelli di programmazione in quanto “L’approccio comune alla programmazione richiedeva che lo stesso programmatore fosse un esperto dell’ambito di competenza del programma, e che fosse sempre prontamente disponibile per effettuare le modifiche […]. Al contrario, il concetto dietro ai sistemi esperti era rappresentare esplicitamente la conoscenza dell’ambito, rendendola disponibile per analisi e modifiche”.
Gli inverni dell’AI

Nel 1984 abbiamo la nascita di un nuovo termine: “AI winter” ovvero “inverno dell’AI”. Già dal nome si intuisce che si tratta di un periodo di raffreddamento, in cui si assiste ad un calo di investimenti e ricerche nel settore.

Alcuni esempi sono:

– metà anni ‘60: gli investimenti in AI vengono bloccati dagli Stati Uniti a seguito di una perdita di sfiducia nel campo di ricerca;

– 1987: l’agenzia governativa del Dipartimento della Difesa degli Stati Uniti (DARPA), blocca gli investimenti estromettendo l’Intelligenza Artificiale dai settori riconosciuti come promettenti.

Però, come ogni stagione, anche gli inverni finiscono e, con gli anni ‘90, arrivano nuove innovazioni e nuovi investimenti, che gettano le basi per il futuro dell’Artificial Intelligence.

Anni ‘90

Deep Blue

È il 1996 e a Philadelphia si sta tenendo una partita di scacchi. Uno dei due giocatori è il campione del mondo Garri Kimovič Kasparov, noto per essere il più giovane ad aver conquistato il titolo, a 22 anni e 210 giorni.

Fino a qui, niente di particolare, se non fosse che l’altro giocatore “Deep Blue” è un computer, progettato da IBM per giocare a scacchi.

La sfida viene vinta da Kasparov ma la rivincita non tarda ad arrivare: l’anno successivo infatti Deep Blue, dopo un aggiornamento, riesce a superare il campione mondiale, aggiudicandosi la vittoria.

Il progetto originale risale al decennio precedente, al 1985, quando lo studente Feng-hsiung Hsu progetta per la tesi di laurea una macchina per giocare a scacchi, chiamata ChipTest.

Nel 1989 a questo progetto si aggiunge Murray Campbell, suo compagno di classe, e altri scienziati informatici, tra cui Joe Hoane, Jerry Brody e CJ Tan.

Il giocatore di scacchi apre la strada a una vasta gamma di possibili campi di utilizzo: la ricerca ha infatti permesso agli sviluppatori di comprendere i modi in cui progettare un computer per risolvere problemi complessi utilizzando una conoscenza approfondita volta ad analizzare un numero sempre crescente di soluzioni possibili.

Una vittoria così rivoluzionaria genera immancabilmente anche numerose critiche relative a cosa significhi la supremazia umana sulle macchine e che cosa essa comporti.

Si cerca inoltre di minimizzare l’evento, concentrandosi principalmente sul “ruolo del supercomputer progettato per il compito, più che sulle sofisticate tecniche usate dal team dei programmatori” (Kaplan, 2017).

AI debole e AI forte

Già noto agli studiosi, negli anni ‘90 si accende ulteriormente il dibattito tra Intelligenza Artificiale debole e Intelligenza Artificiale forte.
La mente umana inizia ad essere vista come qualcosa di programmabile e pertanto sostituibile da una macchina.

Vediamo insieme le caratteristiche dell’IA debole e forte e le principali differenze.

AI debole (weak AI)

L’A.I. – Intelligenza Artificiale debole simula il funzionamento di alcune funzioni cognitive umane ed è connessa all’adempimento di un compito ben preciso (Russel e Norvig, 2003);

Ma l’obiettivo non è quello di eguagliare e superare l’intelligenza umana, quanto invece di agire come un soggetto intelligente, senza che abbia alcuna importanza se lo è davvero.

La macchina infatti non è capace di pensare autonomamente, rimanendo vincolata alla presenza dell’uomo.

AI forte (strong AI)

Secondo John Searle, filosofo del linguaggio e della mente “il computer non sarebbe soltanto, nello studio della mente, uno strumento; piuttosto, un computer programmato opportunamente è davvero una mente”.

L’A.I. – Intelligenza Artificiale forte, infatti, emula in modo più completo il funzionamento della mente umana, risultando autonoma e in grado di agire come un essere umano (Russel e Norvig, 2003).

La tecnologia utilizzata è quella dei sistemi esperti di cui abbiamo parlato nel capitolo degli anni ‘80.

Intelligenza artificiale oggi - Una questione etica

È da sempre oggetto di dibattito pubblico la definizione di quale sia il confine che l’Intelligenza artificiale deve rispettare.

La paura che si sostituisca all’uomo, che la tecnologia si ribelli e altri scenari apocalittici sono la trama di numerosi film sull’argomento che portano l’Intelligenza Artificiale ad essere vista come qualcosa da temere.

Per dettare dei margini alla dimensione etica dell’AI è scesa in campo l’Unione Europea che nel 2019 ha emanato il Codice Etico, contenente le linee guida su utilizzo e sviluppo di sistemi di Intelligenza Artificiale.

Il documento pone l’uomo al centro e definisce come scopo dell’utilizzo dell’AI l’aumento del benessere e la garanzia di libertà.

I punti principali del Codice sono:

controllo e supervisione umana: l’Intelligenza Artificiale deve essere utilizzata per apportare benefici alla vita dell’uomo. Pertanto possono essere sviluppati solo sistemi che tutelino i diritti fondamentali e che permettano all’uomo la totale gestione e supervisione;

Sicurezza: la sicurezza non deve mai essere messa in pericolo, in nessuna fase del ciclo di vita del sistema;

Privacy: in caso di utilizzo di dati personali, i soggetti coinvolti devono essere informati, nel massimo rispetto della normativa UE sulla privacy;

 Tracciabilità: tutti i dati utilizzati devono essere tracciati e documentati;

Assenza di discriminazione: i sistemi di Intelligenza Artificiale devono garantire l’accessibilità a tutti e il rispetto delle diversità;

Cambiamento ambientale: l’AI deve sostenere i cambiamenti climatici positivi;

Responsabilità: nell’utilizzo dei dati devono essere adottati meccanismi di responsabilità relativi agli algoritmi utilizzati, con lo scopo di minimizzare eventuali impatti negativi.


AI and statistical approach

AI e statistical approach

Machine learning - cos’è

Come è già emerso nel capitolo riservato alla storia dell’intelligenza artificiale, il machine learning nasce nel 1943, anche se solo negli anni ‘80 diviene un autorevole campo di ricerca attraverso lo sviluppo delle prime reti neurali non lineari.

Ma cos’è il machine learning? Fin dagli albori dell’AI gli studiosi hanno compreso l’importanza della capacità di apprendere, e di come questa dovesse essere “insegnata” alle nuove tecnologie.

Ma l’apprendimento non deriva solo dallo studio e dal ragionamento, bensì anche dall’esperienza, dalla pratica e dall’allenamento. “Dire che qualcosa è stato appreso non significa solo che quel qualcosa è stato afferrato e immagazzinato, come accade ai dati in un database – deve essere rappresentato in un qualche modo che possa essere messo in uso” (Kaplan, 2017).

Il concetto va, infatti, oltre la mera raccolta e analisi dei dati, riconducibili alla statistica, utilizzando tecniche computazionali che imitano il cervello umano e i suoi processi.

Il machine learning si basa sulle grandi quantità di dati e, piuttosto che fare ipotesi, permette al sistema di apprendere da essi.

Le reti neurali

Uno degli approcci all’apprendimento automatico è quello che utilizza le reti neurali, ovvero modelli computazionali composti da “neuroni” che, come dice il nome, si ispirano ai neuroni biologici.
Seguendo questo approccio, gli elementi fondamentali dei sistemi di apprendimento automatico sono:

Reti neurali: che connettono i vari neuroni;
Neuroni: modelli che cercano di rilevare gli aspetti più importanti del funzionamento neuronale;
Modello di apprendimento: l’organizzazione delle reti, volta all’esecuzione di un compito.

L’apprendimento supervisionato, non supervisionato e per rinforzo

Anche l’apprendimento può essere di varie tipologie:

  • – Apprendimento supervisionato: ha come scopo quello di istruire un sistema per renderlo “capace” di elaborare previsioni automaticamente; 
  • – Apprendimento non supervisionato: fornisce al sistema alcuni input che verranno organizzati e classificati con l’obiettivo di effettuare ragionamenti su di essi, per poter realizzare previsioni sugli input successivi. 

– Apprendimento per rinforzo: ha lo scopo di realizzare agenti autonomi e renderli in grado di scegliere quali azioni compiere per il raggiungimento di determinati obiettivi, attraverso l’interazione con l’ambiente.

Dati, informazioni, conoscenza

Per comprendere meglio l’ampio campo del machine learning è importante definire meglio cosa sono i dati, in cosa si differenziano dalle informazioni e dalla conoscenza.

Che cosa sono i dati? Essi sono una rappresentazione oggettiva (e quindi non interpretata) della realtà analizzata.

Ma il processo non si ferma qui: una volta rilevati è necessario darne una interpretazione. A quelli a disposizione viene attribuito un significato, passando così dal dato all’informazione. 

Perchè queste informazioni diventino conoscenza bisogna attendere un altro passaggio: scegliere come utilizzarle e, in base a quanto emerge, prendere decisioni.

Dati strutturati e non strutturati

Come abbiamo visto nel paragrafo precedente, una corretta rilevazione dei dati è fondamentale per arrivare all’informazione e poi alla conoscenza.

Ne esistono di due tipologie:

  • – dati strutturati: sono quelli organizzati in schemi e tabelle e conservati in database;
  • – dati non strutturati: non hanno alcuno schema e pertanto non hanno un modello predefinito. Immagini, audio e video sono alcuni esempi di dati non strutturati;

– dati semi-strutturati: è un mix delle due tipologie presentate precedentemente.

Modelli ad approccio statistico

Quelli statistici tradizionali sono modelli di machine learning, utilizzati fino all’inizio degli anni 2000. Si basano su una ridotta quantità di dati campione sui quali fanni assunzioni generate dai periodi di domanda passati. Tali modelli, per trovare una soluzione, prediligono una quantità minore di dati, ripetibili e lineari, in contesti in cui le relazioni tra essi si dimostrano relativamente stabili. 

Fino agli inizi del 21° secolo, tali modelli rappresentavano la metodologia più utilizzata per le previsioni a medio-lungo termine, momento nel quale iniziano a cambiare le carte in tavola.

La gestione di una piccola quantità di dati inizia a non essere più sufficiente e insorge la necessità di nuove tecniche di previsione.


Artificial Intelligence

Conclusioni: L’AI nella vita di tutti i giorni

Dopo aver delineato cos’è l’intelligenza artificiale, abbiamo analizzato tutti gli step che, a partire dagli anni ’50, hanno reso grande l’AI.

Questo excursus storico ci ha permesso di comprendere come l’artificial intelligence sia parte integrante della nostra quotidianità e di come l’avanzamento del progresso tecnologico abbia permesso all’AI di essere sempre più presente nella nostra vita di tutti i giorni.

Il Parlamento Europeo ha realizzato un’analisi dei principali campi in cui intelligenza artificiale e vita quotidiana si incrociano, permettendo alla tecnologia di affiancarci sempre di più:

– Shopping in rete e pubblicità: l’AI, come abbiamo visto nei paragrafi precedenti, viene utilizzata anche per realizzare previsioni future, in base ai dati raccolti in precedenza. E questo viene applicato anche ai suggerimenti di prodotti, realizzati in base agli acquisti, all’intento di ricerca, ai comportamenti online e tanto altro.

– Ricerche online: come per lo shopping, anche i motori di ricerca utilizzano i dati raccolti per “imparare” ciò che interessa all’utente e proporgli risultati ad esso affini;

– Assistenti virtuali: con lo scopo di fornire risposte agli utenti, rispondono alle domande in modo personalizzato;

– Traduzione automatica: i software di AI generano automaticamente la traduzione di testi, video e audio. L’esempio più comune sono i sottotitoli autogenerati di youtube;

– Infrastrutture intelligenti: dagli strumenti tech all’interno delle case intelligenti, che apprendono i comportamenti di chi vive nell’abitazione, all’utilizzo dell’AI per migliorare la viabilità delle città;

– Cyber sicurezza: utilizzo dell’intelligenza artificiale per riconoscere e bloccare le minacce informatiche, imparando dagli attacchi precedenti e come riconoscerli;

– L’intelligenza artificiale nella lotta al COVID19: l’AI per la lotta alla pandemia è stata utilizzata in svariati modi, dal controllo degli ingressi contingentati, alla rilevazione della temperatura, fino ad arrivare ad applicazioni più specifiche del sistema sanitario, come riconoscere le infezioni partendo da TAC ai polmoni;

– Lotta alla disinformazione: un valido aiuto per riconoscere fake news, monitorando e analizzando i contenuti social, identificando espressioni sospette o allarmanti, volte a riconoscere fonti autorevoli. 

L’intelligenza artificiale non è presente solo nella nostra routine personale, ma anche in quella lavorativa. Sempre più aziende infatti ricorrono all’AI per offrire migliori servizi ai clienti e aumentare la produttività dei dipendenti.

Un esempio è il knowledge management, ovvero la gestione della conoscenza aziendale, che può essere implementata con sistemi di intelligenza artificiale ad approccio statistico, per permettere agli utenti di trovare più rapidamente le informazioni che stanno cercando all’interno del database aziendale.  

Un dato ormai è certo: l’AI è presente in tanti aspetti della nostra quotidianità, aumentando la nostra sicurezza e permettendoci di avere supporto in numerose attività.

Cosa ci riserverà il futuro non lo sappiamo, ma quel che è certo è che l’Intelligenza Artificiale non arresterà la sua espansione e, come abbiamo visto nel ripercorrere la storia della sua evoluzione, questa è più veloce di quello che sembra.


Fonti:

Post correlati

  • TED Talks AI: 10+1 conferenze sull'Intelligenza Artificiale

    I TED Talks cosa sono TED, noto anche come TED Talks o TED Conference, nasce nel 1984 come un ciclo di conferenze per approfondire tre tematiche: tecnologia, intrattenimento e design (dalle iniziali in inglese di queste parole nasce l’acronimo TED).

  • AI e anni ‘90: Deep blue e Intelligenza Artificiale forte e debole

    Siamo alla quarta puntata del nostro viaggio all’interno della storia dell’Intelligenza Artificiale. Abbiamo delineato i primi passi mossi dall’AI partendo da Alan Turing e John McCarthy,  siamo passati ai due decenni successivi con il machine learning per poi arrivare agli anni ‘80 dei sistemi esperti e gli inverni dell'AI.

  • Sistemi esperti e inverni dell'AI: storia dell'intelligenza artificiale

    Dopo aver delineato i primi passi mossi dall’AI nell’articolo Da Alan Turing a John McCarthy siamo passati ai due decenni successivi in Storia dell’intelligenza artificiale: il machine learning e i sistemi esperti per comprendere l’evoluzione tecnologica che ne è conseguita.

Shopping Basket