Descrizione dell'autore

Web Designer, Programmatore e Sviluppatore SEO 🎖

Home ADS

 Introduzione all'intelligenza artificiale


Domande frequenti sull'intelligenza artificiale (AI)


COS'È L'INTELLIGENZA ARTIFICIALE?

L'intelligenza artificiale (AI) è un ampio campo dell'informatica che si concentra sulla creazione di macchine intelligenti in grado di svolgere attività che normalmente avrebbero bisogno dell'intelligenza umana.


QUALI SONO I QUATTRO TIPI DI INTELLIGENZA ARTIFICIALE?

  • Macchine che reagiscono.
  • Limiti di memoria.
  • Teoria mente-corpo.
  • Autocoscienza.

Cos'è l'intelligenza artificiale? Come funziona l'intelligenza artificiale?
AI

QUALI SONO ESEMPI DI INTELLIGENZA ARTIFICIALE?

  • Siri, Alexa e altri assistenti virtuali sono esempi di assistenti intelligenti.
  • Automobili che si guidano da sole.
  • Robo-advisor.
  • Bot che conversano.
  • Filtri antispam per e-mail.
  • I consigli di Netflix .


Come funziona l'intelligenza artificiale?

Approcci e concetti di intelligenza artificiale

Alan Turing ha cambiato la storia per la seconda volta con una semplice domanda: "Possono pensare le macchine?" Meno di un decennio dopo aver decifrato la macchina di crittografia nazista Enigma e aver aiutato gli Alleati a vincere la Seconda Guerra Mondiale, il matematico Alan Turing ha cambiato ancora una volta la storia con una semplice domanda: "Le macchine possono pensare?"


Lo scopo principale e la visione dell'intelligenza artificiale furono stabiliti dal documento di Turing "Computing Machinery and Intelligence" (1950) e dal test di Turing che seguì.


Al suo livello più elementare, l'intelligenza artificiale è una disciplina dell'informatica il cui obiettivo è rispondere sì alla domanda di Turing. L'obiettivo dei ricercatori di intelligenza artificiale è riprodurre o simulare l'intelletto umano nei robot.


L’ampio scopo dell’intelligenza artificiale ha suscitato una serie di domande e discussioni. Tanto che non esiste una definizione comunemente riconosciuta del campo.


Le macchine hanno la capacità di pensare? — Alan Turing (circa 1950)


Il più grande difetto nel definire l’intelligenza artificiale semplicemente come “la creazione di macchine intelligenti” è che non riesce a descrivere cosa sia l’intelligenza artificiale.


Cosa distingue una macchina come intelligente? Sebbene l’intelligenza artificiale sia una disciplina multidisciplinare con molte metodologie, i progressi nell’apprendimento automatico e nel deep learning stanno causando un cambiamento di paradigma in quasi tutti i settori dell’industria IT .


Stuart Russell e Peter Norvig affrontano l'argomento nel loro pionieristico libro di testo Artificial Intelligence: A Modern Approach unendo il loro lavoro attorno al tema degli agenti intelligenti nelle macchine.


Secondo questa definizione, l'intelligenza artificiale è definita come "lo studio degli agenti che ricevono percezioni dall'ambiente ed eseguono azioni". (viii) Russell e Norvig


Norvig e Russell esaminano poi i quattro approcci principali all’intelligenza artificiale che hanno plasmato la disciplina in passato:


  1. Pensiero simile a quello umano
  2. Pensiero ragionevole
  3. Comportamento umano
  4. Processo decisionale razionale


I primi due concetti riguardano il pensiero e i processi mentali, mentre il resto riguarda la condotta. "Tutte le competenze necessarie per il test di Turing consentono inoltre a un agente di operare razionalmente", scrivono Norvig e Russell, concentrandosi sugli agenti razionali che agiscono per ottenere il miglior risultato. (Russel e Norvig 4, per esempio.)


"Algoritmi resi possibili da limitazioni, esposti da rappresentazioni che supportano modelli focalizzati su circuiti che legano insieme pensiero, percezione e azione", afferma Patrick Winston, professore Ford di intelligenza artificiale e informatica al MIT.


Sebbene questi concetti possano apparire esoterici alla persona comune, aiutano a focalizzare la disciplina come branca dell’informatica e forniscono una tabella di marcia per incorporare l’apprendimento automatico e altri sottoinsiemi di intelligenza artificiale in macchine e programmi.


I quattro tipi di intelligenza artificiale

Macchine che reagiscono

Una macchina reattiva è guidata dai principi fondamentali dell’intelligenza artificiale e, come suggerisce il nome, è esclusivamente in grado di percepire e reagire al mondo che la circonda.


Poiché una macchina reattiva è priva di memoria, non può dipendere dalle esperienze precedenti per guidare il processo decisionale in tempo reale.


Le macchine reattive sono progettate per svolgere solo un numero limitato di compiti specializzati poiché percepiscono il mondo direttamente.


Tuttavia, ridurre intenzionalmente la visione del mondo di una macchina reattiva non è una tecnica di riduzione dei costi; significa invece che questo tipo di intelligenza artificiale sarà più affidabile e affidabile: risponderà in modo coerente agli stessi stimoli.


Deep Blue, un supercomputer IBM che gioca a scacchi e che sconfisse l’esperto internazionale Gary Kasparov in una partita  negli anni ’90, è un rinomato esempio di macchina reattiva.


Deep Blue può solo riconoscere i pezzi su una scacchiera e sapere come si muovono secondo le regole del gioco, oltre a riconoscere la posizione attuale di ciascun pezzo e scegliere la migliore mossa logica in quel momento.


La macchina non stava cercando potenziali giocate future da parte del suo avversario o tentando di posizionare meglio i propri pezzi. Ogni turno veniva trattato come se fosse un mondo a sé stante, distinto da qualsiasi azione precedente.


AlphaGo di Google è un altro esempio di macchina reattiva per il gioco. AlphaGo inoltre non è in grado di prevedere i piani futuri, invece di fare affidamento sulla propria rete neurale per valutare gli attuali sviluppi del gioco , il che gli conferisce un vantaggio rispetto a Deep Blue in un gioco più complesso.


AlphaGo ha anche sconfitto giocatori di Go di livello mondiale, tra cui Lee Sedol, il campione di Go 2016.


L'intelligenza artificiale delle macchine reattive può raggiungere un livello di complessità e affidabilità se progettata per svolgere compiti ricorrenti, nonostante la sua portata limitata e l'incapacità di essere facilmente aggiornata.


Memoria limitata

Quando raccoglie informazioni e valuta potenziali opzioni, l’intelligenza artificiale con memoria limitata può memorizzare dati e previsioni precedenti, essenzialmente scrutando il passato per ottenere indicazioni su ciò che potrebbe accadere domani.


L’intelligenza artificiale con memoria limitata è più complicata e ha più possibilità delle macchine reattive.


Problemi di memoria Quando un team istruisce regolarmente un modello su come valutare e utilizzare dati nuovi, o quando viene costruito un ambiente di intelligenza artificiale per consentire l'apprendimento e la rigenerazione automatica dei modelli, viene prodotta l'intelligenza artificiale.


È necessario seguire sei passaggi quando si utilizza l'intelligenza artificiale con memoria limitata nell'apprendimento automatico: il modello di apprendimento automatico deve essere costruito, il modello deve essere in grado di generare previsioni, il modello deve essere in grado di ricevere feedback umano o ambientale, tale feedback deve essere salvato come dati , e queste fasi devono essere ripetute in un ciclo.


Esistono tre principali metodi di apprendimento automatico che utilizzano l'intelligenza artificiale con memoria limitata:


L'apprendimento per rinforzo è un tipo di apprendimento automatico che impara a produrre previsioni migliori attraverso prove ed errori.


La memoria a breve termine (LSTM) è un tipo di memoria che utilizza le informazioni precedenti per prevedere l'elemento successivo in una sequenza. Quando fanno previsioni, gli LTSM danno priorità alle informazioni più recenti e svalutano i dati del passato, ma li usano comunque per trarre deduzioni.


Con ogni nuova decisione, le reti avversarie generative evolutive (E-GAN) crescono nel tempo, evolvendosi per esplorare percorsi leggermente diversi a seconda delle esperienze precedenti.


Durante tutto il suo ciclo di mutazione evolutiva, questo modello è sempre alla ricerca di un percorso migliore e utilizza simulazioni e statistiche, o il caso, per anticipare i risultati.

cos'è l'intelligenza artificiale con esempi

Teoria della mente

La Teoria della Mente è esattamente questo: una teoria. Non abbiamo ancora sviluppato la tecnologia e le capacità scientifiche necessarie per portare l’intelligenza artificiale al livello successivo.


Il concetto si fonda sulla premessa psicologica che gli altri esseri viventi hanno pensieri e sentimenti che influenzano le proprie azioni.


Ciò significherebbe che i computer basati sull’intelligenza artificiale potrebbero comprendere come si sentono le persone, gli animali e altre macchine e prendere decisioni attraverso l’autoriflessione e la determinazione, quindi utilizzare tali informazioni per trarre le proprie conclusioni.


Per creare una relazione bidirezionale tra le persone e l’intelligenza artificiale, i computer dovrebbero essere in grado di cogliere e interpretare l’idea di “mente”, le fluttuazioni delle emozioni nel processo decisionale e una serie di altri concetti psicologici nella realtà. tempo.


Autocoscienza

La fase finale affinché l’intelligenza artificiale diventi consapevole di sé sarà quella di costruire una teoria della mente nell’intelligenza artificiale, cosa che avverrà in futuro.


Questo tipo di intelligenza artificiale è cosciente a livello umano ed è consapevole della propria presenza nel mondo così come della presenza e dello stato emotivo degli altri.


Sarebbe in grado di dedurre ciò che gli altri potrebbero richiedere in base non solo a ciò che dicono loro, ma anche a come lo dicono.


Nell’intelligenza artificiale, l’autoconsapevolezza richiede che entrambi i ricercatori umani afferrino il concetto di coscienza e poi imparino come replicarlo in modo che possa essere implementato nelle macchine.


Come viene utilizzata l'intelligenza artificiale?

Jeremy Achin, CEO di DataRobot, ha aperto il suo intervento alla Japan AI Experience nel 2017 fornendo la seguente caratterizzazione di come viene utilizzata oggi l'intelligenza artificiale:


"Un sistema di intelligenza artificiale (AI) è un computer in grado di eseguire compiti che normalmente richiederebbero l'intelligenza umana... Molti di questi sistemi di intelligenza artificiale si basano sull'apprendimento automatico, mentre altri si basano sull'apprendimento profondo, e altri ancora si basano su cose banali come le regole."


L’intelligenza artificiale può essere divisa in due categorie:


  • L'intelligenza artificiale ristretta, spesso nota come "intelligenza artificiale debole", è un tipo di intelligenza artificiale che funziona in un ambiente limitato e simula l'intelletto umano. Sebbene l’intelligenza artificiale ristretta sia spesso focalizzata sull’esecuzione molto efficace di un compito specifico, queste macchine operano con molti più vincoli e limiti rispetto anche alla più elementare intelligenza umana.


  • Intelligenza generale artificiale (AGI): l'AGI, spesso nota come "intelligenza artificiale forte", è il tipo di intelligenza artificiale che vediamo in film come le macchine di Westworld o Star Trek: The Next Generation's Data. L'AGI è una macchina dotata di intelligenza generale e può utilizzare tale intelligenza per risolvere qualsiasi problema, proprio come fa una persona.


Intelligenza artificiale ristretta

L’intelligenza artificiale ristretta è ovunque intorno a noi ed è di gran lunga l’implementazione di intelligenza artificiale di maggior successo finora. Secondo un rapporto del 2016 pubblicato dall’amministrazione Obama, “Preparing for the Future of Artificial Intelligence”, l’intelligenza artificiale ristretta ha registrato importanti progressi negli ultimi dieci anni che hanno prodotto “sostanziali vantaggi sociali e hanno contribuito alla vitalità economica della nazione”.


Ecco alcuni esempi di IA ristretta:

  • Esecuzione di una ricerca su Google
  • Software che riconosce le immagini
  • Assistenti personali come Siri, Alexa e altri
  • Automobili che si guidano da sole
  • Watson è un prodotto IBM.


Apprendimento automatico e apprendimento profondo

I progressi nell’apprendimento automatico e nel deep learning sono al centro dell’intelligenza artificiale ristretta. Potrebbe essere difficile distinguere tra intelligenza artificiale, machine learning e deep learning. Frank Chen, un venture capitalist, fornisce una giusta spiegazione su come distinguerli, osservando:


"L'intelligenza artificiale è un insieme di algoritmi e intelligenze progettati per imitare l'intelletto umano." Uno di questi è l'apprendimento automatico e il deep learning è una delle tecniche utilizzate nell'apprendimento automatico."


Definito in modo semplice, l'apprendimento automatico fornisce dati a un computer e utilizza tecniche statistiche per aiutarlo a "imparare" come migliorare in un compito senza essere particolarmente programmato per questo, riducendo la necessità di milioni di righe di codice scritto.


L'apprendimento non supervisionato (utilizzando set di dati etichettati) e l'apprendimento supervisionato (utilizzando set di dati senza etichetta) sono entrambi tipi di apprendimento automatico (utilizzando set di dati senza etichetta).

Il deep learning è una sorta di machine learning che elabora i dati attraverso un design di rete neurale ispirato alla biologia.


I dati vengono elaborati attraverso una serie di livelli nascosti nelle reti neurali, che consentono alla macchina di andare "in profondità" nel suo apprendimento, creando connessioni e valutando gli input per ottenere i migliori risultati.


Intelligenza generale artificiale

Per molti ricercatori sull’intelligenza artificiale , la creazione di una macchina con un intelletto di livello umano che possa essere applicata a qualsiasi attività è il Santo Graal, ma la strada verso l’AGI si è rivelata difficile.


La ricerca di un "algoritmo universale per apprendere e agire in qualsiasi ambiente" (Russel e Norvig 27) non è nuova, ma le difficoltà di costruire una macchina con un set completo di capacità cognitive non sono diventate più facili.


L'AGI è stata a lungo oggetto di fantascienza distopica, in cui robot super-intelligenti prendono il controllo degli esseri umani, ma gli scienziati ritengono che non sia qualcosa di cui dovremmo preoccuparci tanto presto.


Una breve storia dell'intelligenza artificiale

La mitologia greca antica includeva per la prima volta robot intelligenti ed entità artificiali. La creazione del sillogismo e la sua applicazione del ragionamento deduttivo da parte di Aristotele furono un punto di spartiacque nella ricerca dell'umanità per comprendere la propria intelligenza.


Nonostante le sue radici lunghe e profonde, l’intelligenza artificiale come la conosciamo oggi esiste solo da un secolo. Di seguito è riportato un breve riepilogo di alcuni degli eventi AI più significativi.

articolo sull'intelligenza artificiale

Anni '40

  • "A Logical Calculus of Ideas Immanent in Nervous Activity", di Warren McCullough e Walter Pitts, viene pubblicato negli anni Quaranta (1943). In questa pubblicazione è stato proposto il primo modello matematico per lo sviluppo di una rete neurale.


  • (1949) Donald Hebb propone l'ipotesi che i percorsi cerebrali siano formati dalle esperienze e che le connessioni tra i neuroni diventino più forti quanto più vengono utilizzate nel suo libro The Organization of Behavior: A Neuropsychological Theory. Nell’intelligenza artificiale, l’apprendimento hebbiano rimane un modello essenziale.


Anni '50

  • Alan Turing pubblica "Computing Machinery and Intelligence" nel 1950, suggerendo il Test di Turing, un metodo per rilevare se una macchina è intelligente o meno.
  • Marvin Minsky e Dean Edmonds, due studenti universitari di Harvard, creano SNARC, il primo computer con rete neurale, nel 1950.
  • Claude Shannon pubblica nel 1950 “ Programmare un computer per giocare a scacchi”.
  • Le “Tre leggi della robotica” vengono pubblicate da Isaac Asimov nel 1950.
  • Arthur Samuel crea un software per l'autoapprendimento della dama nel 1952.
  • (1954) Nell'esperimento di traduzione automatica Georgetown-IBM, 60 frasi russe accuratamente selezionate vengono tradotte meccanicamente in inglese.
  • (1956) Al "Dartmouth Summer Research Project on Artificial Intelligence", viene sviluppato il termine "intelligenza artificiale". La conferenza, che ha stabilito la portata e gli obiettivi dell’intelligenza artificiale ed è stata guidata da John McCarthy, è ampiamente considerata come la genesi dell’intelligenza artificiale come la conosciamo oggi.
  • Allen Newell e Herbert Simon presentano il primo programma di ragionamento, Logic Theorist (LT), nel 1956.
  • John McCarthy crea Lisp, un linguaggio di programmazione AI, e pubblica il suo articolo "Programmi con senso comune" nel 1958. L'articolo proponeva Advice Taker, un sistema AI completo in grado di apprendere dall'esperienza allo stesso modo degli esseri umani.
  • Allen Newell, Herbert Simon e JC Shaw creano nel 1959 il General Problem Solver (GPS), un software per computer che imita la risoluzione dei problemi umani.
  • Herbert Gelernter creò il programma Geometry Theorem Dimostratore nel 1959.
  • Mentre lavorava all'IBM nel 1959, Arthur Samuel coniò la frase "apprendimento automatico".
  • Il progetto di intelligenza artificiale del MIT è stato avviato da John McCarthy e Marvin Minsky nel 1959.


Anni '60

  • John McCarthy fonda lo Stanford AI Lab negli anni '60 (1963).
  • (1966) Lo studio ALPAC (Automatic Language Processing Advisory Committee) del governo degli Stati Uniti evidenzia la mancanza di progressi nella ricerca sulle traduzioni automatiche, un significativo sforzo della Guerra Fredda che prometteva una traduzione russa automatica e istantanea. Tutti i progetti MT finanziati dal governo sono stati cancellati a seguito dello studio ALPAC.
  • (1969) A Stanford, i primi sistemi esperti efficaci sono DENDRAL integrato, un software XX, e MYCIN, un programma diagnostico per le malattie del sangue.


Anni '70

  • Il linguaggio di programmazione logica PROLOG viene creato negli anni '70 (1972).
  • (1973) Il governo britannico pubblica il "Rapporto Lighthill", che descrive dettagliatamente i fallimenti della ricerca sull'intelligenza artificiale e porta a tagli significativi nei finanziamenti per i programmi sull'intelligenza artificiale.
  • (1974-1980) L’insoddisfazione per lo sviluppo dell’intelligenza artificiale porta a significativi tagli DARPA alle borse di studio universitarie. Secondo lo studio ALPAC e il “Lighthill Report” dell’anno precedente, i finanziamenti per l’intelligenza artificiale si stanno esaurendo e la ricerca è in fase di stallo. Il "Primo Inverno AI" è il nome dato a questo periodo.


Anni '80

  • R1 (noto anche come XCON) è il primo sistema esperto commerciale di successo, sviluppato da Digital Equipment Corporations negli anni '80. R1, progettato per configurare ordini per nuovi sistemi informatici, dà il via a un boom di investimenti decennale nei sistemi esperti, ponendo sostanzialmente fine al primo “AI Winter”.
  • L'ambizioso progetto dei sistemi informatici di quinta generazione viene lanciato dal Ministero del commercio internazionale e dell'industria giapponese nel 1982. Lo scopo di FGCS è creare una piattaforma per lo sviluppo dell'intelligenza artificiale e prestazioni simili a quelle dei supercomputer.
  • (1983) In risposta alla FGCS giapponese, il governo degli Stati Uniti istituisce la Strategic Computing Initiative per finanziare la ricerca avanzata sull'informatica e sull'intelligenza artificiale attraverso la DARPA.
  • (1985) Le aziende investono oltre un miliardo di dollari all'anno in sistemi esperti e per supportarle emerge un intero settore chiamato mercato delle macchine Lisp. Symbolics e Lisp Machines Inc., ad esempio, creano computer specializzati che eseguono il linguaggio di programmazione AI Lisp.
  • (1987-1993) L'industria delle macchine Lisp fallì nel 1987, inaugurando il "Secondo inverno dell'intelligenza artificiale", quando la tecnologia informatica era avanzata e apparivano concorrenti più economici. Durante questo periodo i sistemi esperti divennero troppo costosi da gestire e aggiornare e alla fine caddero in disgrazia.


Anni '90

  • Durante la Guerra del Golfo nel 1991, le forze statunitensi utilizzano DART, un programma automatizzato di pianificazione e programmazione della logistica.
  • (1992) Il Giappone annulla il progetto FGCS nel 1992, adducendo il mancato raggiungimento degli obiettivi ambiziosi fissati dieci anni prima.
  • (1993) Dopo aver speso oltre 1 miliardo di dollari ed essere ben al di sotto delle previsioni, la DARPA interrompe la Strategic Computing Initiative nel 1993.
  • (1997) Il campione mondiale di scacchi Gary Kasparov viene sconfitto da Deep Blue dell'IBM negli anni 2000.


2000

  • (2005) La DARPA Grand Challenge viene vinta da STANLEY, un'automobile a guida autonoma.
  • (2005) L'esercito degli Stati Uniti inizia a investire in robot a guida autonoma come "Big Dog" di Boston Dynamics e "PackBot" di iRobot.
  • (2008) Google sviluppa progressi nel riconoscimento vocale e rende disponibile la funzionalità tramite la sua app per iPhone.

2010-2014

  • In Jeopardy!, Watson di IBM sconfigge la concorrenza.
  • (2011) Il sistema operativo iOS di Apple introduce Siri, un assistente virtuale basato sull'intelligenza artificiale.
  • (2012) Andrew Ng, il fondatore del progetto Google Brain Deep Learning, fornisce 10 milioni di video di YouTube come set di addestramento a una rete neurale utilizzando metodi di deep learning. La rete neurale impara a riconoscere un gatto senza essere informata di cosa sia un gatto, inaugurando una nuova era di finanziamenti per il deep learning e reti neurali.
  • (2014) L'auto a guida autonoma di Google supera per la prima volta un esame di guida statale.
  • Alexa, l'assistente virtuale di Amazon, ha debuttato nel 2014.


2015-2021

  • (2016) Il campione del mondo di Go Lee Sedol viene sconfitto da AlphaGo di Google DeepMind. La complessità dell'antico gioco cinese era vista come una barriera significativa da superare nell'intelligenza artificiale.
  • (2016) Hanson Robotics crea il primo "cittadino robot", Sophia, un robot umanoide capace di riconoscimento facciale, dialogo verbale ed espressione facciale.
  • (2018) Google rilascia BERT, un motore di elaborazione del linguaggio naturale che aiuta le applicazioni di apprendimento automatico a ridurre le barriere alla traduzione e alla comprensione.
  • (2018) Waymo introduce il servizio Waymo One, che consente ai consumatori nella regione metropolitana di Phoenix di ordinare un ritiro da uno dei veicoli a guida autonoma dell'azienda.
  • (2020) Baidu rende disponibile il suo algoritmo LinearFold AI ai team scientifici e medici che lavorano su un vaccino durante le fasi iniziali della pandemia SARS-CoV-2. Il sistema può anticipare la sequenza dell'RNA del virus in soli 27 secondi, ovvero 120 volte più velocemente rispetto ai metodi precedenti.
Back to top button