DECIDERE IN AMBIENTE COMPLESSO NEL 21° SECOLO: INTELLIGENZA UMANA, ARTIFICIALE O AUMENTATA?

di Cristiano Galli

 

Lo sviluppo tecnologico degli ultimi cinquant’anni ha creato una profonda modificazione della realtà in cui le organizzazioni moderne, civili e militari, si trovano a pensare, operare e soprattutto decidere. Anche l’Aeronautica Militare con la propria iniziativa Aeronautica 4.0 ha assunto la consapevolezza della necessità di adattare il proprio modello organizzativo al servizio del Paese assumendo la conformazione tipica di quelle che oggi sono definite KIF, ossia Knowledge Intensive Firms.  E’ un settore di sviluppo delle scienze organizzative assolutamente recente e non esiste ancora una definizione condivisa, pur tuttavia possiamo definirle come organizzazioni che sfruttano una gerarchia orizzontale (o quantomeno reticolare) all’interno della quale gli attori condividano un forte senso di appartenenza che gli consente di auto strutturarsi in modalità funzionali allo scopo comune, con una forte spinta alla collaborazione ed una spinta decentralizzazione dei processi decisionali.

 

Secondo Fjeldstad, Snow, Miles e Lettl (The architecture of collaboration – Strategic Management Journal, 33) esistono tre elementi basilari nell’ambito delle KIFs: gli attori (cioè coloro che hanno le capacità e i valori per auto-organizzarsi), i commons (cioè gli ambienti e gli strumenti attraverso i quali gli attori accumulano e condividono le risorse) ed infine un elemento che è definito come PPI (cioè l’insieme di Protocolli, Processi e Infrastrutture che abilitano una collaborazione multi attore).

 

Al centro di questo processo di ristrutturazione sono evidenziabili due elementi critici: l’elemento umano e l’elemento non umano. Nella fattispecie, l’elemento non umano da prendere in considerazione nell’ambito dei processi decisionali è la cosiddetta Intelligenza Artificiale o AI (Artificial Intelligence).

 

Partendo dall’elemento umano, gli studi di Daniel Kahneman e di Amos Tversky (padri dell’Economia Comportamentale, successivamente evolutasi nella Neuroeconomia) nel settore della “capacità decisionale in contesti ambigui” hanno dimostrato che, nel cervello umano esistono due sistemi neurali basilari per processare le informazioni allo scopo di prendere decisioni: il System 1 e il System 2.

 

Sono due modalità distinte attraverso le quali il cervello umano prende decisioni, il System 1 è automatico, veloce e spesso opera a livello di pensiero incosciente. E’ autonomo, emotivo, intuitivo ed efficiente richiedendo bassi livelli di energia ed attenzione, ma per questo soggetto ai cosiddetti BIAS Cognitivi (attualmente ne sono stati studiati ed individuati svariate decine su base puramente cognitiva o sociale) o errori sistematici. Si è sviluppato per la nostra sopravvivenza e pertanto ha un approccio sintetico e approssimativo basato su meccanismi di memoria associativa.

Il System 2 è invece più lento e razionale, in grado di svolgere operazioni complesse logiche ed analitiche. Sfrutta principalmente la regione cerebrale più recente in termini evolutivi, la corteccia prefrontale. Forse proprio per la sua relativa immaturità evolutiva richiede un grosso dispendio di energia ed è l’unico in grado di processare problematiche innovative. Questo secondo sistema è molto meno soggetto ad errori interpretativi ma limitato dal numero di dati che riesce a processare.

 

Possiamo quindi sintetizzare che l’elemento umano, nell’ambito del processo decisionale organizzativo, possieda un’efficiente capacità decisionale intuitiva, caratterizzata dall’elevata quantità di informazioni sensoriali provenienti dall’ambiente esterno e dall’esperienza sociale ed etica limitato però da una elevata sensibilità ad errori sistematici (BIAS cognitivi e sociali). Al contempo, il processo decisionale umano, è caratterizzato da un’efficace capacità logica e analitica, poco sensibile agli errori ma caratterizzata da una limitata capacità in termine di quantità di dati processabili.

 

Passando ora all’elemento non umano, possiamo definire l’Intelligenza Artificiale (AI), basandoci sulla definizione data da McCarthy: ”una macchina in grado di comportarsi secondo modalità che potrebbero essere definite intelligenti ove fosse un essere umano a comportarsi nella medesima maniera”.  In altre parole, l’AI non è altro che una macchina in grado di imparare e pensare come un essere umano. Nella rapida evoluzione che questo settore scientifico sta affrontando negli ultimi anni sono state individuate due forme distinte: la forma “debole” e la forma “forte”.

 

La forma debole di AI è presente nella nostra vita di ogni giorno sotto forma di Expert Systems (un computer in grado di simulare il comportamento di problem solving di un essere umano in un dominio specifico e limitato), Machine Learning (l’abilità di un computer di raffinare autonomamente i propri metodi ed incrementare i propri risultati elaborando un numero crescente di dati), Natural Language Processing (NLP), Machine Vision and Speech Recognition (elaborazione computerizzata dei principi della Programmazione Neurolinguistica (PNL) e capacità di interpretazione ed analisi di immagini).

 

La forma forte di AI riguarda invece la capacità di una macchina di sviluppare una propria coscienza e di emulare le funzioni principali del cervello umano. È proprio nell’aspetto della coscienza di sé che il settore di sviluppo dell’AI sta incontrando ancora serie limitazioni tecnologiche e concettuali. In particolare esistono forti dubbi sulla capacità delle macchine di operare efficacemente in un contesto guidato da fenomeni etici e sociali.

 

Possiamo quindi sintetizzare che l’attuale sviluppo tecnologico rende le macchine funzionali allo sviluppo di un processo di decision making puramente razionale che però, rispetto al cervello umano, consente l’elaborazione di una quantità pressoché infinita di dati (Big Data).

 

Parallelamente, le limitazioni delle macchine a svolgere un efficace processo decisionale intuitivo derivano dall’impossibilità di fornire alla macchina il medesimo input sensoriale a disposizione del cervello umano e dall’impossibilità di fornire loro il patrimonio esperienziale derivante dal lungo processo evolutivo della specie umana.

 

Applicando una logica integrativa, tipica dei sistemi adattivi complessi, appare chiaro che la migliore soluzione applicabile nelle organizzazioni KI (Knowledge Intense) per rendere i processi decisionali efficaci ed efficienti, derivi dal mettere a sistema i punti di forza e le debolezze dei sistemi umani e non umani. L’integrazione di sistemi di AI con i processi decisionali umani e collettivi prende il nome di Intelligenza Aumentata (Augmented Intelligence).

Sintetizzando un potenziale utilizzo integrativo delle intelligenze umana ed artificiale Dejoux e Léon (Métamorphose des managers – 2018) hanno ipotizzato uno schema come in figura.

 

Un’innovazione geniale apportata da Mélanie Claudé e Dorian Combe in una recentissima pubblicazione di Master (The roles of Artificial Intelligence and Humans in decision making: towards augmented humans? – 2018) ha introdotto un’importante variazione al modello di Dejoux e Léon, la possibilità di sfruttare l’output decisionale dell’Intelligenza Artificiale, analizzato e mitigato dall’analisi intuitiva, esperienziale ed etica dell’intelligenza umana, quale elemento di feedback all’intero processo decisionale, con lo scopo di ottimizzare la strutturazione del problema iniziale e migliorare così il framework di contesto all’interno del quale si svolge la decisione stessa.

 

In estrema sintesi è possibile affermare che l’attuale sviluppo tecnologico e di evoluzione cerebrale rende disponibile un’intelligenza umana che vede nella capacità intuitiva il proprio punto di forza e nella scarsa capacità di elaborazione quantitativa il proprio limite di decisione razionale. Parallelamente abbiamo un’intelligenza artificiale che vede nella propria capacità quantitativa di elaborazione dati il punto di forza nell’ambito dei processi decisionali razionali ed invece una limitata capacità di decisione intuitiva dovuta alla semplificazione delle informazioni di contesto in input, dalla limitata esperienza evolutiva e sociale e dalla mancanza della percezione di sé.

 


L’applicazione di un modello decisionale integrato, secondo lo schema di figura (Claudé e Comb), consentirebbe di rendere il processo decisionale ibrido artificiale-umano (Intelligenza Aumentata), efficace ed efficiente, limitando gli effetti dei BIAS cognitivi e sociali tipici del System 1 ed anche l’inefficienza energetica e la scarsa capacità di calcolo del System 2.

 

Leave a Reply

Your email address will not be published. Required fields are marked *