L'intelligenza artificiale come potente strumento di competitività


1. Introduzione
2. Intelligenza Artificiale: il punto tecnologico
3. Intelligenza Artificiale: nuovo fattore di crescita?
4. Alcune questioni aperte
5. Conclusioni e raccomandazioni
6. Autori

1. INTRODUZIONE
1.1 Dalla fantascienza all’impresa, l’intelligenza artificiale è fra noi
La fabbrica del futuro avrà solo due operai: un uomo e un cane. Compito dell’essere umano è nutrire il cane, la cui funzione è tener l’uomo lontano dalla macchina.
Si deve a Warren Gameliel Bennis questa cruda immagine di quali potrebbero essere le conseguenze di un vasto impiego dell’Intelligenza Artificiale (IA) negli odierni sistemi produttivi. Parafrasando Alan Turing – fra i padri fondatori della moderna intelligenza artificiale – l’IA può infatti esser definita la scienza di far fare ai computer cose che richiedono intelligenza quando vengono fatte dagli esseri umani; o, più propriamente, come quel settore dell’informatica che si occupa di creare macchine intelligenti in grado di eseguire compiti e risolvere problemi nuovi, di adattarsi all’ambiente e comprenderlo, e di capire il linguaggio naturale. Un esempio, fra i tanti, dell’importanza dell’IA oggi ci viene offerto da Jeff Bezos, Fondatore, Presidente e Amministratore Delegato di Amazon.com, forse la più grande azienda di commercio elettronico al mondo.
Bezos, nella sua lettera agli azionisti di quest’anno4 ha insistito sulla necessità di conoscere e adottare “the important external trends”. A suo parere, oggi ad esempio, “we’re in the middle of an obvious one: machine learning and artificial intelligence”. Resta il fatto – secondo Besoz – che per le grandi organizzazioni possa esser difficile adottarli perché “too many organizations spend too much debating if something is going to be big. If you’ve spent that much time debating it, it’s probably too late”.
Il caso di Amazon, come si vedrà meglio più avanti, è esemplare. Azienda leader nel mondo nel campo della distribuzione, Amazon ha fatto dell’innovazione tecnologica – IA in primis per gestire la propria logistica, profilazione del cliente, ecc. – il proprio segno distintivo per garantire consegne capillari e qualità costante. Utilizzando la moderna tecnologia ICT, Amazon ha di fatto scardinato mercati e filiere consolidati ridisegnando un nuovo modello di accesso al consumo.
L´IA è dunque fra noi... ma non solo quando riceviamo un pacchetto da Amazon! A parte le rappresentazioni di fantasia più conosciute, come Hal 9000 – il supercomputer di bordo della nave spaziale Discovery nel film “2001: Odissea nello spazio” –, o C-3PO – un droide di aspetto antropomorfo nel film “Guerre stellari” – moltissime applicazioni dell’IA, meno note ma importanti, da tempo sono parte integrante della nostra vita. Veicoli a guida autonoma, robot, sistemi di riconoscimento del parlato e di traduzione automatica, pianificazione e logistica, giochi, filtri per la posta indesiderata, assistenti vocali di apparecchiature elettroniche sono aspetti concreti di utilizzo dell’IA. La diffusione dell’IA, che sta avvenendo progressivamente a seconda del settore industriale, è infatti inesorabile e ha benefici sui costi operativi variabili a seconda dell’applicazione. In un recente studio, il McKinsey Global Institute stima una riduzione dei costi operativi del 10-15% grazie all’automazione di un sistema di emergenza ospedaliero, del 25% nella manutenzione degli aerei, fino al 90% per la creazione automatizzata di mutui. A livello aggregato, il ciclo virtuoso “maggiore produttività da AI -> maggiore crescita economica -> maggiori risorse economiche (anche per controbilanciare gli effetti occupazionali)” sarebbe dimostrato da un aumento di produttività tale da permettere un fattore di crescita fra il +0.8 e l’1.4% annuo. Accenture, ancor più ottimisticamente, prevede un aumento del 40% della produttività che, entro il 2035, potrebbe tradursi, in Paesi come gli Stati Uniti d’America, in una crescita economica di due punti percentuali e in un aumento del PIL, per l’Italia, ad esempio, di più del 10%7.
Un’indagine condotta dal National Business Research Institute ha peraltro evidenziato che, nel 2016, il 38% delle imprese statunitensi utilizza già l’IA, quota destinata a crescere fino al 62% entro il 2018. Una ricerca di Forrester prevede un incremento del 300% degli investimenti in IA nel 2017 rispetto al precedente anno. Nel solo 2016 – secondo l’Harvard Business Review – la “machine intelligence” ha attratto investimenti di venture capital per 5 miliardi di dollari, anche perché, secondo IDC, l’IA sta rapidamente diventando parte fondamentale dell’infrastruttura IT aziendale. Non a caso aziende come Amazon, Apple, Baidu, Facebook, Google, IBM, Intel, Microsoft e Oracle sono fra le maggiormente coinvolte nel processo di sviluppo e diffusione dell’IA, mentre fra le prime 10 nell’elenco delle principali 500 società al mondo ne sono annoverate altre come Exxon Mobil, Ford Motor, General Motors e Walmart che pure fanno affidamento sull’IA. Numerosissime sono infatti le applicazioni dell’IA – dal customer care alla sanità, dal digital marketing alla Fabbrica 4.0 – per un mercato il cui valore si stima esploderà dagli attuali 3 miliardi di USD ai 47 attesi nel 2020.
Adottare l’IA è dunque una necessità, ormai, non già un’opzione. Farlo prima dei concorrenti significa cogliere opportunità di vantaggio competitivo. Non può essere l’unica misura adottata, come dimostra il caso di Priceline, servizio in rete per la ricerca di viaggi a tariffe scontate. Negli ultimi 10 anni Priceline ha avuto infatti un rendimento medio annuo del 42,1%, superiore a qualsiasi altra società presente nell’elenco di Fortune delle prime 500 al mondo, dimostrando come l’execution possa fare ancora la differenza a prescindere dalle tecnologie adottate. Ma certamente adottare l’IA prima dei concorrenti significa cogliere opportunità di vantaggio competitivo, soprattutto se fosse vero – come ha scritto Andrew Ng – che l’IA è la “new electricity”.
1.2 Two elephant(s) in the room
Il ruolo dell’intelligenza artificiale, vista la sua pervasività, è diventato così importante da essere oggi centrale nel dibattito pubblico in quasi tutto il mondo, oscillando fra due “elefanti nella stanza”: un problema occupazionale e uno etico. Due temi cruciali per le società di oggi, ma soprattutto per quelle di domani. Il primo – in apparenza più vicino al sentire comune perché, riguardando il lavoro, sembra influire maggiormente sulla vita quotidiana – è il saldo occupazionale negativo che il crescente massiccio impiego dell’intelligenza artificiale potrebbe comportare, almeno inizialmente. Il secondo – in apparenza più lontano dal sentire comune perché riguarda problemi per così dire etici – è la “dittatura” dell’IA, che gradualmente potrebbe sostituire l’uomo non solo nello svolgimento di attività fisiche, più o meno sofisticate, ma anche intellettuali.
Si tratta di due questioni tanto “topiche” quanto “annose”. “Topiche” perché la forza pervasiva dell’IA evoca la “distruzione creatrice” schumpeteriana, quel processo in cui forti innovazioni tecnologiche innescano un drastico processo selettivo, nel quale molte imprese spariscono, altre ne nascono, e altre si rafforzano; e con esse il lavoro, che viene “distrutto”, più o meno velocemente di quanto ne venga creato. Da qui la domanda che sale ormai incessante e a cui manca ancora una risposta condivisa: si perderanno solo posti di lavoro, o se ne creeranno invece di nuovi grazie alla nascita di nuove figure professionali che assorbiranno l’inevitabile surplus umano che l’introduzione dell’intelligenza artificiale genererà a breve nel settore dei servizi, come successo con le macchine prima in quello agricolo e poi in quello manifatturiero? In caso negativo, che fine faranno coloro che perdono prima il lavoro: come si manterranno, che faranno tutto il giorno? Aleggia il rischio di masse impegnate “la mattina (ad) andare a caccia, il pomeriggio (a) pescare, la sera (ad) allevare il bestiame, dopo pranzo (a) criticare, così come (gli) vien voglia; senza diventare né cacciatore, né pescatore, né pastore, né critico”, in un paradossale superamento della divisione del lavoro teorizzata da Karl Marx.
“Topiche” perché l’idea che attività tipicamente intellettuali come, ad esempio, la ricerca e la redazione dei precedenti per una memoria nei sistemi di common law possano essere sostituite da macchine – che operano secondo istruzioni impartite da altre macchine, che via via saranno in grado di forme di ragionamento logico autonomo e di auto organizzazione –, di fatto svuota l’essere umano di competenze e, forsanche, della ragion d’essere. “Topiche” perché ci pongono davanti domande come quanto reale sia il rischio che un eccessivo sviluppo delle biotecnologie e dell’IA insieme possa portare una dittatura sociale – come sembra temere Yuval Noah Harari –, con divisione dell'umanità in una piccola classe di “superumani” e una grande sottoclasse di persone “inutili”. O, ancora, ma l’elenco potrebbe esser molto lungo, perché pongono il dubbio se sia verosimile – come suggerisce Lamtharn Hantrakul – che la dittatura dell’IA possa essere anche “culturale”, perché la tecnologia non è culturalmente neutrale e così non lo sono gli algoritmi, espressione intrinseca del pensiero di chi li sviluppa.
“Annose” perché note da tempo, ma sino ad ora neglette. Come spesso accade, infatti, ce ne si accorge solo alla fine, quando il progresso tecnologico da una parte, e la riduzione dei costi di prodotti e servizi dall’altra stanno creando le condizioni perché l’IA diventi pervasiva, mentre era invece chiaro da tempo che il problema sarebbe emerso, trovandoci, com’era prevedibile, impreparati a gestirlo. I nuovi algoritmi sempre più sofisticati che vengono sviluppati per dare senso alla massa di dati (Big Data) che soprattutto l’IoT (Internet delle cose) rende disponibili e che sono utilizzati per dare istruzioni a “macchine”, robot ad esempio, sono giustificati dal fatto che oggi raccogliere grandi masse di dati e processarle in tempo reale, o quasi, stia diventando possibile, sia tecnologicamente, sia soprattutto economicamente. Le nuove macchine dalle grandi capacità di calcolo, le reti di sensori sempre più sofisticate e la connettività capillare oggi disponibili a prezzi abbordabili rispetto solo a tre/cinque anni fa spiegano gli enormi investimenti che la comunità finanziaria sta sostenendo nella spasmodica ricerca di algoritmi per l’elaborazione dei dati.
Il presente rapporto parte dalla constatazione che l’IA è già fra noi, per spiegare come la sua adozione non sia ormai più un’opzione bensì un’esigenza. Perché si tratta di agganciare un fenomeno in atto. Se ne si vogliono cogliere gli aspetti positivi di crescita economica occorre muoversi subito, prima dei concorrenti, per cogliere opportunità di vantaggio competitivo. Resta da capire, quindi, cosa fare, soprattutto in ottica italiana, per favorire la nascita di un ecosistema aperto all’intelligenza artificiale, evitando – sempre che sia ancora possibile – di cadere in un’eccessiva dipendenza dai first mover statunitensi e cinesi, e avendo ben presenti le questioni etiche sottese.

IMPRESA OGGI L'IA è già applicata in molte applicazioni di uso quotidiano, anche se a volte non lo sappiamo come: nei motori di ricerca, nei video giochi, nel gioco degli scacchi o giochi di carte vs computer, nelle macchine fotografiche, nei navigatori, nei servizi al cliente, nella domotica, nelle automobili.

www.aspeninstitute.it - 04-11-2017

Continua ....

LOGO


2. INTELLIGENZA ARTIFICIALE: IL PUNTO TECNOLOGICO
2.1 Intelligenza Artificiale: cos’è e come funziona
L´IA non è un´idea nuova. Non esiste una sola definizione di IA e non c’è nemmeno un ampio consenso tra ricercatori e informatici su come possa essere definita, perché il concetto comprende una grande quantità di argomenti che vanno dalla pura informatica alla neurologia, passando per gli studi su come funziona il nostro cervello. In linea di massima si può dire, genericamente, che l’intelligenza artificiale è la scienza che si occupa di come creare macchine intelligenti, e che ha trovato nelle possibilità offerte dall’informatica la via più pratica e probabile per ottenere un simile risultato. Questo ambito della scienza è strettamente legato a quello ancora più ampio che da tempo cerca di rispondere alla domanda delle domande: come funziona l’intelligenza umana? Le scoperte sull’intelligenza potrebbero portarci a sviluppare la migliore IA possibile, ma secondo altri ricercatori potrebbe avvenire il contrario: sviluppando un’IA potremmo scoprire cose su come funziona il nostro cervello.
Semplificando, l’intelligenza è l’insieme delle capacità psichiche e mentali che permettono di pensare, comprendere le azioni e i fatti, e saperli spiegare, fino ad elaborare modelli astratti partendo dalla realtà. Questi processi portano alla capacità di ottenere un risultato di qualche tipo, con vari livelli di efficienza a seconda dei casi. L’intelligenza è quasi sempre riferita all’intelligenza umana, l’unica di cui abbiamo una conoscenza e un’esperienza diretta, e questo complica la nostra capacità di immaginare intelligenze diverse, che magari potrebbero essere più adatte per lo sviluppo di una IA.
In secoli di studi, scientifici, ma anche filosofici, sono stati identificati particolari meccanismi che sono alla base dell’intelligenza. Traendo ispirazione dal loro funzionamento, è stato possibile realizzare computer che imitano parte di questi meccanismi. Il problema è che, a oggi, non si è ancora riusciti ad imitarli e integrarli tutti, quindi i sistemi di IA di cui disponiamo sono sostanzialmente incompleti. Un software può quindi imitare i meccanismi necessari per vincere una partita a “go”, o per guidare un’automobile automaticamente rispettando il codice della strada, migliorando queste capacità e diventando “intelligente” in senso lato.
In decenni di ricerche, sono state provate diverse soluzioni per raggiungere un’IA vera e propria. Di base sono stati scelti due approcci: uno è consistito nell’osservare il comportamento umano, il modo in cui ragioniamo e ci comportiamo, per costruire software che imitino il più possibile i nostri processi logici. L’altro, più creativo, prevede di partire dai problemi che pone la realtà e, sulla base di questi, fare elaborare all’IA un proprio metodo di comportamento. I due approcci spesso si incrociano e uno non esclude necessariamente l’altro, anche perché i progettisti sono comunque esseri umani, con un loro modo di pensare e ragionare che si riflette nella progettazione dell’IA.
Nel frattempo, stanno emergendo sempre più tecnologie, nuove e importanti, rese possibili dal simultaneo sviluppo dei big data, dei sistemi cloud storage e dell’elaborazione dati, tre precondizioni perché l’IA possa crescere. Fra queste, Forrester ne ha individuate 13 come le più importanti per le imprese e per lo sviluppo e l’implementazione di applicazioni nei processi aziendali, mirando ad agevolare i processi di decision-making.
Ciascuna di queste tecnologie sembra avere in comune alcuni elementi:
• Rappresenta già o giocherà presto una parte importante nell´aumentare la collaborazione tra uomo e macchina;
• È commercialmente disponibile presso almeno un fornitore e non si tratta solo di un progetto di ricerca;
• Possiede un potenziale valore per il business in molti campi diversi.
Organizzate secondo diverse fasi a seconda del livello di maturazione, si riportano di seguito 10 tecnologie, considerate di particolare rilevanza:
• Natural Language Processing – È l’elaborazione del linguaggio naturale, ovvero il processo di trattamento automatico mediante un calcolatore elettronico delle informazioni scritte o parlate in una lingua naturale. In sostanza il NLP abilita una macchina a comprendere un testo, ma le garantisce anche capacità di espressione, per esempio la mette in grado di farne un riassunto. Il NLP è usato nel customer care, nei riassunti automatici, nelle analisi dei testi, ma anche nelle analisi del “sentiment”, per misurare il livello di emotività di un determinato discorso e interpretare se chi parla è favorevole, contrario, ironico, ecc. al concetto espresso.
• Speech Recognition – Trascrizione e trasformazione di discorsi di esseri umani per applicazioni informatiche. È attualmente usata nei sistemi di risposta vocale interattivi.
• Virtual Agent, assistenti virtuali – Attualmente sono sotto i riflettori dei media. Si va dai semplici chatbot, in pratica “segretari virtuali” in grado dialogare in automatico in chat con i clienti rispondendo a semplici e comuni domande, a sistemi più avanzati. Questa tecnologia è attualmente usata nel customer service e nella smart home.
• Piattaforme di machine learning – È un settore dell’informatica che dà ai computer la capacità di imparare senza essere stati esplicitamente programmati. In pratica, consiste nella capacità di un algoritmo di apprendere dai dati, ovvero di evitare gli errori commessi in precedenza. Le piattaforme di machine learning sono utilizzate in una vasta gamma di applicazioni per le imprese, principalmente per quanto riguarda previsioni e classificazioni di vario tipo.
• AI-optimized Hardware – Unità di elaborazione grafica (Gpu) e dispositivi specificamente disegnati e costruiti per eseguire in modo efficiente lavori di computazione.
• Decision Management – Motori che inseriscono ruoli e logica all’interno di sistemi di Intelligenza Artificiale e sono usati per set-up iniziali, training, manutenzione e calibratura. È una tecnologia matura, usata in una vasta gamma di applicazioni imprenditoriali per assistere o realizzare processi decisionali in automatico.
• Deep Learning Platform – Uno speciale tipo di machine learning che consiste in una rete neurale artificiale, usato attualmente soprattutto nella “pattern recognition” (ad esempio, il riconoscimento di sagome o volti da parte di sistemi di archiviazione di foto – come Google Photo o iCloud – o di apparecchiature di sorveglianza).
• Biometrica – Rende possibili interazioni più naturali tra esseri umani e macchine, compresa l’interazione con immagini, touch recognition, parole e linguaggio del corpo. È usata principalmente nelle ricerche di mercato.
• Robotic Process Automation – Utilizzo di testi o altri metodi per automatizzare l’azione umana in modo da supportare processi imprenditoriali efficienti. È utilizzata laddove è troppo costoso o scarsamente efficiente far eseguire determinati compiti agli esseri umani.
• Text Analytics e NLP – Il Natural Language Processing (NLP) usa e supporta il text analytics facilitando la comprensione di strutture e significato delle frasi, ma anche del loro “sentimento” e del loro intento attraverso metodi statistici e di machine learning. Sono usati nell’individuazione delle frodi e nella security.
Fonte: Forrester Research
2.2 Prospettive e limiti per l’adozione dell’IA nelle imprese
La tecnologia IA aiuta le imprese ad affrancare ed elevare la qualità del lavoro umano, contribuendo ad aumentare i fatturati e profitti e ad acquisire nuovi clienti, oltre che a limitare i rischi di un’attività e migliorare l’efficienza in generale. L’IA, tuttavia, non serve solo per ottimizzare l´apporto del lavoro umano, ma anche per:
• Amplificare l’intelligenza umana: l’IA agisce principalmente come ausilio per espandere l´intelligenza umana, fornendo conoscenze contestuali provenienti da dati cui la mente umana da sola non potrebbe accedere e/o elaborare;
• Affrancare i lavoratori da compiti banali o onerosi: vi sono responsabilità/funzioni in azienda per ricoprire le quali si richiede poco sforzo cognitivo umano, ciononostante esse sono state tenute fuori dall´ambito di utilizzo dell’IA;
• Abilitare i processi robotici adibiti all´auto-miglioramento e all’auto-correzione: le tecnologie IA possono essere molto utili nei casi in cui non ci sia più un’interazione diretta con l´essere umano dopo che un applicativo sia stato impostato e avviato.
L’IA, dunque, ha il potenziale per portare grandi cambiamenti in tutta l'impresa, trasformandola in un ecosistema, dal momento che spingerà verso queste direzioni:
• La trasformazione accelerata nelle applicazioni rivolte al cliente. Le organizzazioni di servizio e supporto clienti stanno già sperimentando una trasformazione al traino dell’IA, grazie all’utilizzo del riconoscimento vocale, della NLP, degli agenti virtuali e del machine learning. Questo non riduce semplicemente il volume delle chiamate: l’IA modificherà fondamentalmente le pratiche di assunzione e di formazione degli agenti di un’organizzazione, la creazione e la conservazione delle conoscenze, e le procedure ed i processi diretti verso il coinvolgimento dei clienti.
• Forti stravolgimenti nelle industrie tradizionali. I mutamenti legati all’IA non sono sempre immediatamente apparenti nelle industrie colpite. In alcuni casi, come spedizione e logistica, l’accumulo di tecnologie multiple impone all’industria un cambiamento importante, una volta che le tecnologie raggiungono un certo livello di maturità. L’introduzione di veicoli sufficientemente sicuri autoguidati per terra, mare o aria, è in corso da decenni, ma una volta che verranno introdotti, trasformeranno radicalmente il livello di servizio offerto sino a quel momento, il modello di business e lo stesso inquadramento dei dipendenti.
• Web interconnesso di intelligence aziendale. La tendenza ad antropomorfizzare l’intelligenza è un segno distintivo di ogni essere umano, e possiamo constatare come lo stesso venga esteso anche ai software di IA. Oggi Watson, Alexa e Cortana, come pure Amelia, ABIe e Holmes, sono più o meno noti come esempi concreti di applicazione di IA. I sistemi di IA che costituiranno la base delle imprese intelligenti in futuro, tuttavia, saranno simili nello sviluppo a molte altre tecnologie, rappresentando un ecosistema di pezzi interconnessi che si sostengono reciprocamente. Possiamo già vedere come gli sviluppatori stiano costruendo applicazioni intelligenti e stiano parlando di “pezzi” di Watson o di Cortana. L'IA nell’impresa comporterà spesso l'avvio a livello atomico, piuttosto che l’acquisto di una soluzione completa. A valle di queste opportunità vanno fatte alcune considerazioni sui limiti di tale sviluppo. Sempre in base alla ricerca di Forrester, il maggior ostacolo all’adozione dell’IA sembra essere – a livello generale – la paura di sostituire l’uomo con le macchine. La realtà è piuttosto diversa: il futuro sarà ibrido, con la presenza di esseri umani e di macchine che lavorano insieme per aumentare l’efficienza complessiva. A questo proposito, occorre tener conto di alcuni aspetti:
• Gli esseri umani e le macchine intelligenti funzionano meglio in tandem. Gran parte della preoccupazione attuale a proposito dei sistemi di IA deriva da un’ansia per la disoccupazione tecnologica. In verità, la maggior parte dei sistemi di IA non sempre e non solo sostituiscono personale: spesso permettono lo svolgimento di compiti a basso valore, troppo costosi o onerosi per l'uomo. Sono infatti gli esseri umani a dover collegare le tecnologie di tutte e tre le componenti sensoriali per costruire sistemi di IA che siano in grado di sentire, pensare e agire autonomamente.
• L'interazione uomo-computer supera di gran lunga l’interazione computer-uomo. Siamo solo all´inizio della scoperta di come le macchine possano comunicare più efficacemente con noi, e questa è un´area relativamente poco studiata.
• Use case più circoscritti offrono risultati migliori. Una vera IA oggi non esiste. Le aziende che hanno ottenuto successi reali da un punto di vista del business nell'utilizzo di questi sistemi hanno mantenuto ridotta la portata degli use case e hanno sviluppato le loro applicazioni in modo che l’IA potesse limitarsi a rispondere semplicemente a query, domande o input entro un ambito limitato. Le implementazioni più riuscite includono: agenti virtuali per il servizio clienti, analisi delle immagini nel settore della sicurezza e della sorveglianza, e sistemi di risposta vocale interattiva. Una seconda considerazione è che, per quanto gli investimenti in tecnologia IA siano in aumento, le sfide che ostacolano l’adozione della tecnologia IA permangono, e includono l’assenza di alcuni elementi, fra cui:
• Un chiaro business case. Poiché lo sviluppo in corso dell’IA è un fenomeno relativamente recente, molte organizzazioni non hanno ancora capito come applicare l’IA per raggiungere obiettivi commerciali specifici. Come in molte tecnologie, i ricercatori e il mondo accademico sono stati i primi a sviluppare e a diffondere i sistemi di IA, mentre le imprese stanno appena cominciando a occuparsene. Senza un percorso ben orientato verso il raggiungimento del ROI, molte organizzazioni hanno difficoltà a giustificare gli investimenti in questo ambito.
• Competenze specializzate per costruire, implementare e gestire sistemi di IA. Esiste ormai un gruppo di ricercatori, noti nel mondo accademico, che si sta specializzando in deep learning e IA, mentre il pool di talenti nel mondo del business è ancora molto ridotto. Inoltre, siccome l’adozione dell’IA per il business è ancora allo stato embrionale, ancora meno persone hanno la capacità di interpretare l´IA e di applicarla al contesto aziendale. Questo non significa che domani si dovrà rinnovare completamente il personale di un’azienda, ma sarà necessario aggiungerne di nuovo. Ad esempio, una grande società di consulenza internazionale sta aggiungendo un linguista al proprio team con l’obiettivo di costruire un’applicazione in grado di classificare automaticamente un contenuto testuale.
• Una robusta piattaforma di gestione dati. In generale, i computer eseguono ciò che viene loro chiesto, un input cattivo produrrà quindi un output ugualmente cattivo (“garbage in, garbage out”), e questo è ancor più vero nel caso dei sistemi di IA. Questi sistemi necessitano spesso di enormi quantità di dati per imparare ad eseguire un’attività specifica. D’altro canto, “assicurare la qualità dei dati estratti da una grande varietà di fonti”, che dovrebbe essere un traguardo per molte organizzazioni, resta un obiettivo ancora lontano per la maggior parte delle imprese.
• Pratiche e processi di gestione del cambiamento. Al di là delle sfide che riguardano i singoli casi, le competenze e i dati aziendali, uno dei più grandi impatti organizzativi dei sistemi di IA, e quello di cui le imprese sembrano essere più preoccupate, è l'impatto di tali sistemi sull’impresa stessa. La gestione del cambiamento sembra infatti essere considerata uno dei maggiori rischi, e indica la necessità di prepararsi a ristrutturazioni della propria forza lavoro a causa dell’IA. Una prima conclusione indica che è importante adottare tecnologie IA in fase di maturazione e seguire i progressi di quelle che hanno un potenziale di sviluppo concreto. Questo per i seguenti motivi:
• I sistemi di IA richiedono ancora particolare cura nella progettazione, nell’ingegneria della conoscenza e nella compilazione dei modelli. L’obiettivo di molti sistemi di IA è quello di ottenere applicazioni funzionalmente autonome; il problema è che, per ingegnerizzare la conoscenza contenuta e per costruire modelli che sappiano recepire input ed eseguire azioni, i sistemi di IA richiedono sforzi significativi di progettazione.
• Le tecnologie IA richiedono nuove competenze, non nuovo personale. Esse implicano l´utilizzo di nuove abilità, come la familiarità con il deep learning, le tecniche di analisi testi e la computazione emotiva. Non è necessario né opportuno, tuttavia, acquisire nuovo personale specializzato in IA, separato dal resto del personale. Si possono sviluppare sistemi intelligenti con gli stessi addetti allo sviluppo e data science esistenti, adottando però nuovi modelli di collaborazione e nuovi ruoli, ma non senza aver fornito adeguata formazione. Una seconda conclusione è che le tecnologie IA, attraverso i propri strumenti e le piattaforme di servizio già ora disponibili, consentono agli sviluppatori di applicazioni di mantenere la promessa di ulteriori applicazioni contestuali, accattivanti e intelligenti. Costruire sistemi complessi di IA può sembrare impossibile, quando in realtà molte funzionalità di IA sono già integrate oggi in applicazioni e processi aziendali esistenti. Per farlo occorre:
• Iniziare con un approccio modulare e poi scale-out. L’aggiunta dell’IA alle applicazioni aziendali non è un progetto monolitico: spesso l'intelligenza non viene fornita attraverso una singola applicazione che sia stata perfettamente addestrata e sintonizzata, ma attraverso l'aggiunta di funzionalità, sia una alla volta, sia nell’insieme.
• Sfruttare le piattaforme e i prodotti sul mercato per ottenere componenti prefabbricati di intelligenza. Non tutte le organizzazioni possono permettersi di costruire una grande unità interna dedicata all’IA, in particolare per cercare di risolvere problemi complessi quali analisi del linguaggio e alcuni aspetti della NLP e della NLG. Per questi use case, che richiedono competenze e dati di nicchia per i loro modelli fondamentali, è preferibile acquistare strumenti o piattaforme già sul mercato.
• Stabilire ordini di priorità nella raccolta e nella preparazione dei dati destinati specificamente ai compiti dell’IA. Senza dati, non ci può essere nessuna intelligenza. Tutte le tecnologie software analizzate in questo documento richiedono una certa quantità di formazione algoritmica per ottenere risultati. Raccogliere un numero sufficiente di dati adatti richiede inoltre tempo e investimenti. Anche se l’impresa non è pronta ad adottare tecnologie di IA avanzate, le applicazioni disegnate per la raccolta di dati di comportamento e per la revisione di pratiche e processi interni sulla rappresentazione delle conoscenze consentiranno domani una partenza molto rapida.

www.aspeninstitute.it - 04-11-2017

Continua ....

LOGO


3. INTELLIGENZA ARTIFICIALE: NUOVO FATTORE DI CRESCITA?
3.1 La lunga marcia dell’IA nelle aziende
L’implementazione dell’IA, e sinora principalmente delle tecniche di machine learning nei settori industriali, si sta diffondendo rapidamente, grazie ai benefici conseguenti alla disponibilità di funzioni, come ad esempio:
• Identificazione in tempo reale di transazioni fraudolente;
• Identificazione e navigazione di strade, micro-segmentazione per assicurazioni basata su dati telematici relativi al comportamento alla guida;
• Digital advertising personalizzato;
• Ottimizzazione di prezzo/prenotazioni in tempo reale, prodotti finanziari personalizzati;
• Manutenzione predittiva nel settore manifatturiero;
• Predizione medica/diagnostica personalizzata.
La diffusione dell’IA – ancorché inesorabile – sta avvenendo progressivamente e con tassi di penetrazione differenti a seconda del settore industriale. Negli Stati Uniti, ad esempio, l’adozione nei settori ICT, dei media e dei servizi finanziari è decisamente superiore rispetto alle utility e al settore manifatturiero, e ancor più rispetto al settore dell’ospitalità, delle costruzioni e all’agricoltura.
I benefici sui costi operativi sono variabili a seconda dell’applicazione, ma sostanziali: il McKinsey Global Institute calcola, ad esempio, una riduzione di costi operativi del 10-15% grazie all’automazione di un sistema di emergenza ospedaliero, del 25% nella manutenzione degli aerei, fino al 90% nella creazione automatizzata di mutui. In aggregato, l’incremento in produttività delle imprese si riflette in un fattore di crescita del +0.8-1.4% annuo. Ciò detto, l’adozione delle nuove tecnologie è ancora in fase iniziale. Sempre McKinsey stima che gli Stati Uniti d’America siano al 18% del proprio pieno “potenziale di digitalizzazione”, la Francia al 12%, l’Italia al 10%. Come si è visto, una delle maggiori resistenze alla sua adozione, sembra essere legato agli impatti occupazionali. L’impatto atteso sull’occupazione, in verità, è indubbio, ma fortemente variabile a seconda del settore industriale. Se, in ottica teorica, si stima che il 51% delle attività salariate negli Stati Uniti sia potenzialmente automatizzabile, in alcuni casi – ad esempio nel settore dell’ospitalità – l’effettiva realizzazione pratica non è ancora tecnicamente realizzabile, e la stima di automazione basata sulle tecnologie attualmente in commercio scende al 5%.
Per evitare ansietà ed esagerazioni che potrebbero creare un rifiuto emotivo verso l’IA, è importante anche ricordare che l’aumento di produttività non si traduce necessariamente ed automaticamente in licenziamenti. Alcuni esempi:
1. Negli anni ’70 e ‘80 la diffusione del codice a barre negli Stati Uniti non portò (diversamente da quanto ipotizzato) ad un calo del numero totale di impiegati alle casse (che anzi aumentarono di qualche punto percentuale nello stesso periodo);
2. In molti casi l’efficienza recuperata consente semplicemente di reindirizzare le attività verso aree a maggior valore aggiunto. Un buon esempio è costituito dal calcolo di efficienza nelle attività di un CEO qualora utilizzasse tecniche di IA. Sempre McKinsey stima che il 25% delle attività di un CEO possano essere automatizzate, ma è difficile immaginare che producano come effetto il licenziamento del CEO stesso, ovvero una generale riduzione del numero dei CEO (si considerino anche le efficienze portate nell’ultimo decennio da terminali multifunzione come Blackberry e Smartphone, senza che si siano riscontrati effetti apprezzabili sull’occupazione dei CEO);
3. Senza contare il caso dell’ATM (Automatic Teller Machine), il nostro bancomat, di cui proprio quest’anno ricorre il cinquantesimo anniversario di entrata in servizio18. Si era predetto che quest’antesignano della meccanizzazione di attività sino ad allora svolte dall’essere umano avrebbe ridotto il numero degli impiegati allo sportello bancario. La realtà è che non sembra esserci stata alcuna riduzione.
Indubbiamente alcune professioni sono destinate a scomparire, o quantomeno a veder grandemente ridotta la propria importanza, ma non si deve dimenticare che l’IA consente la sofisticazione di piattaforme digitali fruibili su larga scala, che rendono possibili nuove forme di occupazione. Si pensi alla – peraltro controversa – economia indotta da piattaforme come Uber, AirBnB, o addirittura Facebook e Instagram in Asia, dove fungono da motori di commercio informale “peer-to-peer” con crescita esponenziale. Ancora McKinsey stima che il 20-30% della popolazione in età lavorativa in USA e UE si dedichi a lavori informali ed “extra”, perlopiù abilitati da piattaforme digitali, per integrare il proprio bilancio domestico, la cosiddetta gig economy a cui si accennerà nel quarto capitolo. Proprio alla luce delle perplessità che sembrano emergere in relazione a queste nuove forme di lavoro, è opportuno favorire e regolamentare l’accesso a questa flessibilità, piuttosto che adottare un approccio di retroguardia e di “luddismo anti-digitale”.
Automazione, insomma, non significa solo riduzione dei costi del personale, ma anche e soprattutto maggiore affidabilità/robustezza, maggiore qualità e sicurezza (ad esempio nelle transazioni finanziarie). Per certo, significa l’ ottenimento di maggiore competitività, ad esempio attraverso la manutenzione predittiva per un’azienda industriale, o attraverso una consegna più veloce ed affidabile di beni di consumo da parte di un’azienda di servizi. Importante dunque evitare di cadere nella trappola di identificare l’IA come “capro espiatorio” di una crisi economica innescata da altri fattori. L’IA, al contrario può e deve fornire all’industria e ai servizi un’importante spinta di produttività. Questo è di particolare importanza in Paesi come l’Italia caratterizzati da crescita rallentata e invecchiamento della popolazione.
3.2. I primi traguardi dei leader industriali nell’IA
Come già sottolineato, la nuova ondata di IA è qui, ora. L’effettiva applicazione industriale delle nuove possibilità, tuttavia, è ancora agli inizi. Non a caso, i campioni nell’adozione operativa delle nuove tecnologie sono gli stessi player che hanno introdotto la rivoluzione digitale (Apple, Amazon, Google: i “soliti noti”). In altre parole: gli artefici dell’innovazione in IA ne diventano anche i principali utilizzatori. Oltre a godere di una maggiore maturità tecnologica, essi fanno leva sulla propria infrastruttura consolidata di cloud e big data, e sulla propria capacità di raccolta, immagazzinamento ed analisi di vasti insiemi di dati (come visto in precedenza, entrambi fattori fondamentali per lo sviluppo e la sofisticazione dei sistemi IA).
Alcuni esempi: • Grazie all’acquisizione (per 775 milioni di dollari) di Kiva, una società di robotica specializzata nell’automazione del “picking e packing”, Amazon ha abbattuto il tempo che intercorre tra click e spedizione (60-75 minuti se gestito da risorse umane) a 15 minuti, mentre la capacità del magazzino è aumentata del 50%. Il ritorno complessivo sull’investimento è stato complessivamente del 40%;
• Netflix utilizza estensivamente, come noto, il proprio algoritmo di raccomandazione personalizzata per i propri 100 milioni di clienti. La stima di Netflix è che la soddisfazione dei propri clienti (grazie ad una rapida identificazione dei contenuti desiderati – 90 secondi è il limite di “sopportazione” misurato) si traduca in 1 miliardo di dollari in ricavi da prevenzione di churn (ovverosia, perdita di ricavi ascrivibili a clienti che altrimenti avrebbero cancellato il proprio contratto con Netflix);
Altri player, non digital native ma dotati di ampia scala e capacità di investimento, si sono attivati con focus sull’IA. BMW e Toyota, ad esempio, hanno investito recentemente in modo massiccio in IA. Toyota da sola ha dichiarato di aver allocato 1 miliardo di dollari nella ricerca e sviluppo in robotica e machine learning a supporto di automobili senza pilota. Altri giganti industriali quali ABB, Bosch, General Electric e Siemens stanno dichiarando investimenti significativi in IA.
Da un punto di vista di settore, quelli più in anticipo nell’adozione dell’IA sono le telecomunicazioni, il settore high-tech, l’automotive e il manifatturiero avanzato. A seguire, un gruppo di industrie a digitalizzazione meno pervasiva, quali utility, servizi finanziari e professionali, costruzioni. Dal punto di vista delle applicazioni pratiche di IA, guardando attraverso la catena del valore, queste sono riscontrabili principalmente nelle funzioni di customer service (ad esempio per telecomunicazioni e servizi finanziari), nel marketing e nelle vendite, così come nelle operations (in particolare nell’automotive e nell’assemblaggio industriale, nel settore dei beni di consumo, così come nelle utility) e nello sviluppo di prodotti.
Gli esempi che seguono vogliono dimostrare alcuni casi concreti di creazione di valore:
• Il forecasting è una delle aree di maggior impatto (sia per gli approvvigionamenti, sia per la previsione della domanda). Il forecasting basato su IA è in grado di ridurre gli errori del 30-50% rispetto ad approcci tradizionali. I costi relativi alla logistica si riducono del 5-10%, mentre è possibile una riduzione del magazzino tra il 20 e il 50%. Lato previsione domanda, un retailer online tedesco afferma di aver sviluppato un algoritmo AI che prevede, con un margine di accuratezza dal 90%, gli acquisti dei propri clienti nei 30 giorni successivi.
• Nel marketing, il ruolo principale degli algoritmi IA è quello di personalizzare e rendere dinamica l’offerta (ad esempio attraverso i modelli di Next Best Offer “alla Amazon”). Il pricing diventa anch’esso dinamico, grazie ad algoritmi predittivi e di ottimizzazione che si adattano in tempo reale alle dinamiche di domanda e offerta. Le applicazioni si estendono sia al mondo consumer (online retailing, mutui personalizzati, prezzi di biglietti aerei e hotel), sia a quello B2B (ad esempio nell’aerospaziale, dove le previsioni dei costi di manutenzione sono utilizzate per il pricing).
• Nel settore manifatturiero, riveste particolare interesse lo sviluppo di robot dotati di computer vision. Nuove telecamere basate sull’IA possono essere allenate a riconoscere spazi vuoti o identificare un oggetto e la sua posizione, con utilizzo conseguente nella logistica di produzione. Alcune società (ad esempio Rethink Robotics) sviluppano robot “collaborativi” che possono essere istruiti da operatori umani nel replicare movimenti e azioni, con incremento di produttività in ambiti non completamente automatizzabili. Oppure, nel caso della produzione di semiconduttori, i motori di IA analizzano una vasta mole di dati di produzione per identificare processi produttivi errati e proporre correzioni, con una riduzione significativa del numero di difetti di produzione.
• Nel retail, le applicazioni sono ancora sperimentali, ma ad alto potenziale di innovazione. Si vedano ad esempio i casi di Amazon, che ha costruito un supermercato fisico a Seattle (Amazon Go) che consente ai clienti di “uscire senza pagare” i beni acquistati, ricevendo una fattura a casa (il sistema è basato su un sistema di IA che riconosce i beni acquistati attraverso computer vision). Oppure i numerosi test di consegna mediante droni, che richiedono funzioni di deep learning per aumentare la propria accuratezza e affidabilità.
• Nelle utility, la programmazione della manutenzione può essere affidata all’IA: mediante dati raccolti da sensori, applicazioni di machine learning aiutano gli operatori a prevedere quando e dove la manutenzione programmata e non (ispezioni, ecc.) sarà necessaria. Il risparmio conseguente stimato per un’utility europea è, ad esempio, del 30% sui costi di manutenzione dei trasformatori di potenza.
L’impatto complessivo dell’adozione di IA sul conto economico delle imprese è ancora difficile da quantificare con certezza, tuttavia le imprese che dichiarano di aver investito in IA riportano margini dai 3 a 15 punti percentuali più alti della loro media di settore (nonostante la pressoché totalità di esse ritenga di aver estratto solo una parte dei benefici di produttività permessi da questa tecnologia, ovvero consideri la maggior parte dei benefici a venire negli anni successivi).
3.3 I “giganti dell’IA”: minaccia, ma anche opportunità
Come illustrato, l’adozione dell’IA da parte del mondo industriale ha un potenziale importante, e le imprese che accelerassero in questa direzione sarebbero in grado di sviluppare un vantaggio competitivo significativo. Il timore è che, come già accaduto per la rivoluzione digitale, l’asimmetria nella rapidità di adozione dell’IA, riscontrabile tra i leader digitali innanzitutto, finisca per generare un’ulteriore separazione tra settori “avanzati” e laggard, con le aziende di Paesi quali l’Italia a maggior rischio di posizionarsi tra questi ultimi per via di un ritardo nell’adozione delle nuove tecnologie. Di più, la correlazione osservata tra dimensione dell’impresa e rapidità/facilità di adozione del digitale/IA, rende ancora più vulnerabile la posizione di Paesi che – come l’Italia – sono caratterizzati da uno sbilanciamento verso la piccola e media impresa.
Non a caso, la concentrazione dell’innovazione tecnologica nell’IA nelle mani di pochi “giganti” nordamericani quali Google, Amazon, Apple, Microsoft, o cinesi quali Alibaba e Tencent, è fonte di preoccupazione nelle altre geografie, pur non essendo un fenomeno specifico dell’IA (si pensi alla decennale posizione dominante di Microsoft nei sistemi operativi).
D’altro canto, è riscontrabile un netto trend verso un approccio open da parte dei principali attori nel mondo dell’IA che “aprono” le proprie capacità verso sviluppatori e terze parti. Nella recente edizione dell’evento annuale “Google I/O”, il CEO Sundar Pichai non solo ha confermato ulteriormente i progressi e la centralità dell’IA in tutte le aree di sviluppo del colosso americano, ma ha altresì esplicitato l’apertura a terze parti dei propri chip ultra-veloci per l’esecuzione di codice machine learning, mediante un progetto open source. Amazon e Microsoft stanno attuando politiche similari, ovviamente centrate e a beneficio delle relative piattaforme (Alexa, Cortana). Questa competizione tra soluzioni cloud/IA dovrebbe avere un effetto benefico sulla rapidità di innovazione nell’IA nei prossimi anni, e rappresenta senza dubbio un’opportunità di partecipazione all’ecosistema dell’IA per chi ne fosse stato fino ad ora escluso.
Dinamiche analoghe, nel passato recente, hanno condotto a episodi di breakthrough tecnologico: si veda ad esempio l’apertura di Apple a sviluppatori esterni del proprio App Store, che ha consentito la creazione di potenti applicazioni quali Uber o Instagram. Oppure, in Cina, la disponibilità offerta a terze parti della piattaforma WeChat di Tencent, per lo sviluppo di funzionalità come ad esempio news, taxi, food delivery, pagamenti. Il modello open sta rappresentando un volano formidabile per lo sviluppo di un ecosistema digitale alternativo a quello basato su Apple iOS, Google Android e ai circuiti di pagamento tradizionali.
4. ALCUNE QUESTIONI APERTE
4.1 Governance e rapporto uomo-macchina
Come si è anticipato, due temi che nei prossimi anni acquisteranno sempre maggiore rilevanza sono IA e robotica. Non si tratta infatti solo di IA in quanto tale, ma delle sue applicazioni in vari ambiti; a partire dalla robotica. I sistemi più all’avanguardia prevedranno infatti l’uso di architetture tecnologiche in grado di dedurre informazioni dai dati, imparando dagli stessi e applicando quanto già acquisito nelle elaborazioni successive (“macchine che imparano”). Il tutto grazie alla combinazione di: computer sempre più potenti (High Performance Computer), diffusione dell’infrastruttura digitale, e algoritmi dell’IA e robotica, che portano a un’ottimizzazione dei processi su larga scala e a un aumento della produttività a costo minore. Esempi sono i veicoli a conduzione autonoma, i robot che gestiscono i magazzini di stoccaggio delle industrie e la comprensione automatizzata di immagini mediche, ad esempio per l’individuazione del cancro (come ad esempio sistemi di aiuto nella diagnosi del melanoma).
Pur essendo ancora lontani dall’automazione di processi che richiedono ragionamento e pianificazione24, si pone tuttavia la questione aperta della governance e del rapporto uomo-macchina. Il World Economic Forum cita la robotica e l’intelligenza artificiale tra le 20 tecnologie emergenti della Quarta Rivoluzione Industriale destinate a trasformare il mondo nei prossimi anni, evidenziando come esse possano dare origine a grandi opportunità e, al contempo, a grandi rischi: il bilanciamento dipende dall’efficacia del sistema con cui vengono governate, ovvero dell’insieme di regole, standard, incentivi, istituzioni e altri meccanismi volti a regolarne lo sviluppo e l’utilizzo.
La questione della governance è particolarmente rilevante nel caso dell’IA perché solleva veri e propri dilemmi in termini di etica e responsabilità, ad esempio per quanto riguarda le auto a guida autonoma. Inoltre, pone interrogativi sul piano della sicurezza e della privacy, oltre che dei possibili impatti sociali in termini di occupazione, di potenziale aumento della disparità tra le diverse fasce della popolazione e del delicato rapporto uomo-macchina. Queste nuove tecnologie non possono prescindere dall’interazione con l’uomo: sono al suo servizio e lavorano in maniera integrata con l’intelligenza umana. Gli esseri umani sono veloci nell’elaborazione parallela, cioè nella pattern recognition: sanno riconoscere il volto di una persona conosciuta, anche se con la pettinatura cambiata o gli occhiali da sole indossati; sanno capire quello che una persona sta dicendo anche se varia il tono della voce; leggono una lettera scritta a mano. Invece sono meno veloci nell’elaborazione sequenziale. I computer nel primo campo si sono evoluti in misura ridotta, mentre nel secondo sono ormai diventati super veloci. Solamente l’integrazione fra i due tipi di intelligenza può massimizzare le opportunità e mitigare i rischi. Tramite il machine learning, ad esempio, l’uomo ha la possibilità di addestrare adeguatamente i robot e le loro intelligenze, oppure ha la possibilità di scrivere codici di programma tali da poter eseguire operazioni complesse che si implementano e correggono grazie all’autoapprendimento. In questo modo l’IA riuscirà ad essere realmente di supporto all’uomo, potenziando o integrando le sue capacità.
4.2 Etica e minacce, il capitalismo dei dati: alcune questioni aperte
Come ogni altra tecnologia, l’IA e la robotica non sono né buone né cattive in sé, ma sono strumenti neutri. È l’intenzione con cui queste tecnologie sono usate che determina la loro etica. Infiltrarsi in un database usando l’IA per danneggiare un altro essere umano non è etico, ma infiltrarsi nello stesso database per bloccare il lancio di un missile nucleare può essere visto come etico. A oggi, sono gli esseri umani che determinano come la tecnologia è usata. IA e robotica non sono così avanzate da avere un’“anima” che ragiona, un piano e un intento; per non parlare di aspetti emotivi e di empatia. Siamo lontani decenni da questo tipo di sviluppi, se mai saranno possibili. Prima di preoccuparci del fatto che l’intelligenza artificiale stia diventando “la più grande minaccia esistenziale” (Elon Musk), dobbiamo da subito sviluppare le regole etiche riguardo all’utilizzo della tecnologia, allo stato di avanzamento attuale.
Le regole etiche devono considerare vari aspetti, i più immediati dei quali riguardano la sicurezza, la privacy e la fiducia/trasparenza. Tra quelli meno ovvi ci sono le considerazioni relative a come prevenire un’ulteriore distribuzione non equa della ricchezza, dovuta a un utilizzo di queste tecniche avanzate solo da parte di una élite, mentre la parte della società non formata su queste tecniche viene lasciata indietro e senza lavoro. In primo luogo, ci sono lavori che oggi non sono automatizzabili e che la società dovrebbe riconoscere maggiormente: come l’insegnamento, l’artigianato e il design, e la cura degli anziani. Inoltre, IA e robotica avranno ancora bisogno di un accompagnamento umano per molto tempo. Ciò sarà fonte di nuovi profili professionali specializzati, per i quali ci sarà ancora richiesta sul mercato. In terzo luogo, le società che useranno in maniera intelligente IA e robotica (e aumenteranno la produttività utilizzando meno persone) dovranno contribuire di più ai sistemi di welfare. I governi sono lenti nell’anticipazione di questi cambiamenti, e ancora di più nell’attuazione dei relativi provvedimenti. L’Italia potrebbe provare a fornire l’esempio in questo settore.
Certo è che – secondo alcuni – si sta assistendo alla nascita di una nuova era, quella del cosiddetto “capitalismo dei dati” (solo pochi anni fa definito “Surveillance Capitalism”). Oggi il campo dell’interazione sociale e il dominio del profitto si sovrappongono. Il capitalismo mette al centro un’immensa massa di dati: dipende dai dati perché attraverso essi genera ricchezza. Combatte per la sua stessa sopravvivenza ed entra così nella nostra vita sociale. Nelle parole del sociologo Evgeny Morozov, “le tecnologie digitali sono sia la nostra migliore speranza che il nostro peggiore nemico”. Occorre ribaltare il paradigma e rinegoziare la nostra libertà, perché da Google a Facebook è il “click capital” – così definito proprio da Morozov – che conta e che de facto soggettivizza gli attori sociali della rete. Pochi colossi si appropriano dei nostri comportamenti, e dei nostri vizi e piaceri in rete fanno virtù (a beneficio loro). Se l’accumulazione del capitale si concentra su due aspetti – prima la raccolta e poi l’analisi dei dati –, allora cambiano le relazioni tra individui, il rapporto tra istituzioni e persone, e nascono nuove forme di lavoro. La sharing economy è una faccia di quello che Arun Sundararajan ha ribattezzato “crowd-based capitalism”, “capitalismo della folla”.
Tutto, però, ha un prezzo. Il “prezzo della connessione è – appunto – il “capitalismo della sorveglianza””, secondo Nick Couldry. Shoshana Zuboff parla di un vero e proprio processo di estrazione, mercificazione e controllo dei dati all’interno di un’architettura globale che si basa su una logica di accumulazione chiamata proprio “capitalismo della sorveglianza”, sostenendo che “alla domanda “chi partecipa?” la risposta è: quelli con il materiale, la conoscenza e le risorse finanziarie necessarie. Alla domanda “chi decide?”, la risposta è: l’accesso è deciso dai mercati basati sul controllo del comportamento. Questi sono costituiti da coloro che vendono l’opportunità di influenzare il comportamento a scopo di lucro e da coloro che acquistano tali opportunità”.
4.3 La “distruzione creatrice” di oggi fra lavoro, gig economy e algocrazia
Altre questioni aperte riguardano il cosiddetto paradosso del nostro tempo, la percezione cioè della “distruzione creatrice” schumpeteriana in atto. Un processo in cui forti innovazioni tecnologiche innescano un drastico processo selettivo, nel quale molte imprese spariscono, altre ne nascono, e altre si rafforzano; e con esse il lavoro, che viene “distrutto”, più meno velocemente di quanto ne venga creato. Paradosso proprio perché è una tesi che, per il suo contenuto o per la forma in cui è espressa, appare contraria all’opinione comune secondo cui il saldo occupazionale totale risultante è negativo.
Bot (Il bot in terminologia informatica in generale è un programma che accede alla rete attraverso lo stesso tipo di canali utilizzati dagli utenti umani, per esempio che accede alle pagine Web, invia messaggi in una chat, si muove nei videogiochi, e così via. Programmi di questo tipo sono diffusi in relazione a molti diversi servizi in rete, con scopi vari ma in genere legati all'automazione di compiti che sarebbero troppo gravosi o complessi per gli utenti umani) e robot, oltre al variegato mondo di applicazioni che si fa ricadere oggi sotto la generica definizione di “intelligenza artificiale”, sono la “distruzione creatrice” del presente. Essa è percepita come un rischio rispetto ai modelli occupazionali attuali, perché nella storia l’innovazione tecnologica ha sempre prodotto forti tensioni, eliminando lavori tradizionali ma facendone emergere di nuovi.
La gig economy - un modello economico in crescita dove non esistono più le prestazioni lavorative continuative (il posto fisso, con contratto a tempo indeterminato) ma si lavora on demand, e l’algocrazia, ovvero il “potere degli algoritmi” che determina, organizza e vincola le interazioni umane con quei sistemi – sono plastica manifestazione della “distruzione creatrice” in atto oggi. Nella gig economy domanda e offerta vengono gestite online attraverso piattaforme e applicazioni dedicate: ad esempio l’affitto temporaneo di camere (ad es. Airbnb), attività da freelance come la progettazione di siti web (ad es. Upwork o Fivver), la vendita di prodotti artigianali (ad es. Etsy), i trasporti privati alternativi ai taxi (ad es. Uber), le consegne a domicilio (ad es. nella ristorazione, come Deliveroo e Foodora). I lavoratori della gig economy sono tutti in proprio e svolgono attività temporanee/interinali/part time/saltuarie/provvisorie. A differenza di quanto accade in un modello burocratico, in cui il potere amministrativo è basato su leggi e regolamenti, ed è esercitato da una gerarchia, nella gig economy l’algocrazia si avvale invece del codice – l’algoritmo – e della sua programmabilità per creare modalità di lavoro dove si può agire solo come previsto dagli algoritmi, riducendo così la necessità di supervisione e controllo.
Il “salario di sussistenza”, la cui sperimentazione è ora avviata in alcuni Paesi come la Finlandia, sembra il modello con cui le nostre società pensano di poter contenere i troppi disoccupati che l’odierna distruzione creatrice genererà. Come se garantendo questo salario fosse possibile scindere la simbiosi che, da secoli, vede abbinati il lavoro e la sussistenza, lasciando l’individuo senza una fisonomia professionale definita. Una società, insomma, in cui “la mattina si possa andare a caccia, il pomeriggio pescare, la sera allevare il bestiame, dopo pranzo criticare, così come ci vien voglia; senza diventare né cacciatore, né pescatore, né pastore, né critico”. L’elephant in the room è il depotenziamento delle fisionomie professionali, quasi il saper fare bene qualcosa diventasse secondario e non invece determinante, oltre che per la sussistenza anche per l’identità di ognuno.
Opporsi alla distruzione creatrice dell’innovazione tecnologica, tuttavia, oltre che antistorico in genere non paga. Esemplare il caso delle “vecchie élite” nell’Inghilterra del XVIII secolo, “la cui maggior fonte di reddito era rappresentata dalla proprietà terriera o da privilegi commerciali, di cui godevano grazie ai monopoli e alle tutele dalla concorrenza garantiti loro dai sovrani” che controllavano i governi dei paesi e che all’indomani della rivoluzione industriale furono chiaramente gli sconfitti”. La lezione, allora come oggi, è che “la crescita economica non nasce semplicemente dall’introduzione di macchinari migliori e più numerosi, o dall’aumento del livello di istruzione dei lavoratori; si tratta di un processo destabilizzante, che porta cambiamenti radicali e si associa a fenomeni di distruzione creatrice.” Che vanno governati, in modo proattivo. Avendo ben presenti gli aspetti di contesto, etici e sociali.
Nella sharing economy si punta ad abbattere i costi condividendo azioni che si farebbero comunque. L’esempio di Blablacar calza a pennello: l’automobilista pianifica un tragitto e per contenere le spese, mette a reddito i posti liberi. Ma l’autista di Uber non decide di partire dalla Stazione centrale di Milano per andare in albergo e, già che c’è, dà un passaggio al turista di turno. L’autista di Uber si sposta su chiamata. Come un taxista. Tanto da aver fatto saltare la mosca al naso alla categoria. È il caso dei rider di Foodora, pagati a consegne. Rider che nient’altro è che un esotismo per indicare il più prosaico fattorino. Questi corrieri sono inquadrati in una collaborazione organizzata dal committente, per esempio nella gestione dei turni, devono indossare un’uniforme di rappresentanza, ma devono sobbarcarsi i costi degli strumenti di lavoro, come smartphone e bicicletta”.
Gli algoritmi decidono i risultati dei motori di ricerca, le pubblicità che appaiono quando visitiamo un sito, le notizie a cui viene data rilevanza su Facebook, il programma più adatto per la lavatrice, ma anche le priorità nelle liste d’attesa per un trapianto, chi viene sottoposto a verifiche e controlli, ad es. fiscali o negli aeroporti, e molto altro. Gli algoritmi fanno parte di quasi tutti gli aspetti della vita quotidiana dove c’è tecnologia. Sono anche alla base di decisioni politiche e amministrative che ci riguardano direttamente come cittadini ma che non sempre sono documentate e trasparenti.
5. CONCLUSIONI E RACCOMANDAZIONI
5.1 Conclusioni
L´IA è fra noi. Già da tempo. A parte le sue rappresentazioni di fantasia più conosciute, moltissime sue applicazioni, poco note ma non meno importanti, sono ormai parte integrante della nostra vita. Adottare l’IA, dunque, è ormai una necessità, non più un’opzione. Farlo prima dei concorrenti significa cogliere opportunità di vantaggio competitivo permettendo addirittura aumenti del PIL che, nel caso dell’Italia, potrebbero essere sino al 10%38.
5.2 Raccomandazioni: in Italia, che fare?
Come abbiamo visto, le tecnologie dell’IA aiutano le imprese ad elevare la qualità del lavoro umano, contribuendo ad aumentare i fatturati e profitti e ad acquisire nuovi clienti, oltre che a limitare i rischi di un’attività e migliorarne l’efficienza. Per aver successo nello scegliere le tecnologie più indicate è importante tener presente che:
• Adottare tecnologie IA in fase di maturazione e seguire i progressi di quelle che hanno un potenziale di sviluppo concreto;
• Costruire sistemi complessi di IA può sembrare impossibile, quando in realtà molte funzionalità dell’IA già sono integrate oggi in applicazioni e processi aziendali esistenti;
• Ricordarsi, per evitare ansietà ed esagerazioni che potrebbero creare un rifiuto emotivo verso l’IA, che l’aumento di produttività non si traduce necessariamente ed automaticamente in licenziamenti.
Nello specifico italiano, per creare un ecosistema favorevole all’IA ed evitare la dipendenza dai first mover, soprattutto se ingombranti come Stati Uniti e Cina è necessario gestire:
• La necessità per le imprese di adottare rapidamente e in maniera convinta le applicazioni rese possibili dall’IA, per aumentare la produttività interna e restare competitive nello scenario globale. Gli imprenditori leader italiani devono rapidamente investire nell’IA (piattaforme/tecnologia e competenze); come qualcuno ha sottolineato, gli asset e le competenze digitali rappresentano “il nuovo stato patrimoniale”. È importante che un’analoga mentalità ricettiva verso l’adozione di queste tecnologie si sviluppi nel mondo politico e tra gli opinion leader, per evitare controproducenti “battaglie di retroguardia”: i policy maker devono stimolare l’adozione dell’IA per creare il surplus di produttività e di benessere economico necessari a “finanziare” la gestione delle implicazioni sociali.
• L’asimmetria tra poche imprese (internazionali) che raccolgono i benefici dell’IA, spesso grazie a business model disruption, e molte (nazionali) che faticano a sfruttarne il potenziale. In particolare, le dinamiche “winner takes all” tipiche dell’economia digitale (ad esempio: il 12% del commercio globale di beni è condotto via e-commerce da pochissimi operatori come Alibaba, Amazon e eBay, quindi senza player rilevanti locali). Di conseguenza, è fondamentale per l’Italia adottare un chiaro ruolo nell’ecosistema digitale globale. Anche se la competizione diretta con i giganti internet appare fuori portata, la diffusione crescente di piattaforme “open” consente ai Paesi più lungimiranti di partecipare e avere un ruolo negli ecosistemi più rilevanti.
• La diffusa mancanza delle competenze necessarie per gestire l’IA, che vanno invece promosse a partire dal sistema scolastico, bilanciandole con il mantenimento della creatività progettuale, vero punto di forza italiano. Il problema delle competenze – McKinsey stima che, negli Stati Uniti solamente, il gap tra domanda e offerta di data scientist nei prossimi anni sarà di 250.000 unità. In Italia sarà importante supportare le discipline STEM (basic science, technology, engineering and math) attraverso il sistema scolastico, ma adottandole al nuovo contesto mediante l’alfabetizzazione digitale delle nuove generazioni. Le recenti evoluzioni internazionali consentono anche di intravedere opportunità di attrazione di talenti esteri (es. dal Far East).
• Il problema etico indotto dall’IA, in particolare la presunta asimmetria distributiva dei benefici derivanti da una sua massiccia adozione, che va discusso sulla base di standard condivisi e best practice reali, capendo cosa sia stato realmente fatto, cosa sia possibile fare e in quali tempi.
Un contributo importante per l’Italia può venire da imprenditori, decisori politici pubblici/privati e opinion maker che si impegnassero a puntare sulle prospettive di crescita e sulle nuove professioni derivanti dall’introduzione dell’IA, con investimenti in grado di controbilanciare l’impatto negativo sull’occupazione e il cui ritorno potrebbe essere significativamente positivo se correttamente gestiti. Alcune proposte concrete potrebbero essere le seguenti:
• Promuovere una partnership pubblico/privato che favorisca gli investimenti in piattaforme digitali. La digitalizzazione è importante, perché consente di raccogliere i dati necessari ad “allenare” i sistemi di IA. Per gestire l’abbondanza di dati è fondamentale creare un ecosistema di dati con standard “open”, per attrarre talenti e accelerare l’innovazione.
• Sostenere nuove forme di imprenditorialità privata rese possibili dalle piattaforme digitali. È necessario favorire le opportunità di profitto individuale basate sul digitale e la creazione di business individuali, semplificando tassazione e regolamentazioni.
• Introdurre benefici fiscali per le aziende, per stimolare gli investimenti in digitalizzazione (e in capitale umano) nelle aree digital job. Gli sgravi fiscali in capitale umano per l’IA e la digitalizzazione potrebbero essere equiparati a Ricerca e Sviluppo.
• Creare centri e laboratori di IA nelle università, in collaborazione col settore privato, cercando di attrarre e convincere i “giganti dell’IA” a stabilire una presenza rilevante in Italia, il che potrebbe contribuire a ridurre il divario attuale.
Una particolare opportunità per l’Italia potrebbe profilarsi con la cosiddetta Industria 4.0, la tendenza dell’automazione industriale ad integrare alcune nuove tecnologie produttive per migliorare le condizioni di lavoro, aumentando così la produttività e la qualità produttiva degli impianti.
L’Italia, la cui spina dorsale industriale rimane grandemente centrata sul comparto manifatturiero, si sta infatti posizionando all’interno delle tematiche dell’Industria 4.0. Fabbriche di nuova generazione stanno integrando tecnologie avanzate per realizzare sistemi automatizzati altamente integrati, in grado di produrre in maniera efficace merci su richiesta e in modo dinamico. Un insieme di sensori connessi a Internet (Internet of Things) permette di collezionare i dati di produzione dalle macchine relativamente al processo produttivo in corso. Questi dati (disponibili in rete) forniscono informazioni di rilievo sul processo manifatturiero e sullo stato delle macchine. L’analisi e il monitoraggio di tali dati in tempo reale permettono così di individuare e predire eventuali problemi tecnici, minimizzando il down time e consentendo la gestione ottimale dei flussi di offerta e domanda, aspetto molto importante in generale, e ancora di più in settori quali il commercio elettronico.
L’introduzione di questo tipo di algoritmi basati sull’intelligenza artificiale è ancora agli inizi41; per l’Italia l’opportunità è quella di specializzarsi nell’applicazione di tali sistemi avanzati per aumentare la produttività e farne un elemento di eccellenza industriale. Obiettivo, quest’ultimo, condiviso da molti altri Paesi, a partire dagli Stati Uniti, per i quali il sistema manifatturiero è parimenti centrale e per il rilancio del quale McKinsey Institute ha appena proposto un ripensamento attivo lungo quattro direttrici: “Reinvesting, Retraining, Removing Barriers, and Reimagining Work”. Un modello di riflessione che in Italia andrebbe adottato per poter rispondere a tre domande centrali:
1. Ha ancora senso produrre in Italia, o meglio esiste un sistema manifatturiero moderno e adeguato – e in quale percentuale nel Paese – per competere con il resto del mondo?
2. La forza lavoro italiana è preparata e qualificata per esser parte attiva di un moderno sistema manifatturiero?
3. Quali sono le misure da adottare per rilanciare un settore come il manifatturiero che anche in Italia soffre di occupazione in contrazione, bassi salari e produttività insufficiente?
Nel 2015 in Italia, il mercato relativo a Big Data e Analytics è cresciuto solo del 14% raggiungendo il valore di EUR 800M (Osservatorio Big Data Analytics & Business Intelligence, School Management Politecnico di Milano) e non è chiaro quanta IA sia stata introdotta.
6. AUTORI
Ludovico Ciferri (Project Leader)
Monica Beltrametti
Luciano Floridi
Piero Trivellato

www.aspeninstitute.it - 04-11-2017

LOGO


www.impresaoggi.com