About

INTELLIGENZA ARTIFICIALE E LE SMART CITY DEL FUTURO

di Cristiana Era

 

I temi che riguardano le applicazioni dell’intelligenza artificiale si stanno moltiplicando sia nella letteratura accademica che nell’informazione in generale. Il concetto di intelligenza artificiale (l’acronimo è IA) non è recente ma nasce negli anni ’50, e il matematico britannico Alan Turing è generalmente riconosciuto come il padre dell’informatica e dell’IA. Negli anni a seguire il suo sviluppo subì varie battute di arresto e l’idea di una macchina in grado di apprendere (il machine learning è anch’esso un concetto del passato) venne abbandonata. Ma la rivoluzione tecnologica recente ha riaperto la strada all’intelligenza artificiale, grazie soprattutto al calcolo quantistico, che dà ad un computer capacità di elaborazione impensabili fino ad un decennio fa, e alla disponibilità di enormi quantità di dati (i big data)che possono essere elaborati proprio grazie al calcolo quantistico. Questo fa dell’IA il potenziale vettore della più grande trasformazione in grado di cambiare radicalmente non soltanto la struttura sociale, economica e politica, ma di sostituire l’interfaccia uomo-macchina – già presente in molti settori – all’interfaccia macchina-macchina (o M2M, dall’inglese machine-to-machine), non senza suscitare da parte di alcuni qualche perplessità.

 

I programmi di IA fanno già parte della nostra quotidianità anche se ancora con capacità limitate, basti pensare agli assistenti vocali o alle reti neurali che utilizzano i big data per le analisi sui comportamenti degli utenti, o anche la guida senza pilota. Come è noto, tali programmi si basano su algoritmi più o meno complessi, ma si tratta ancora di una IA definita “debole” perché limitata ad ambiti specifici (cfr.: National Geographic, Intelligenza Artificiale. La strada verso al superintelligenza, in Le frontiere della Scienza, vol. 2, 2018). Tuttavia, la ricerca sull’intelligenza artificiale sta sperimentando una incredibile espansione in tutti i settori e l’obiettivo è quello di arrivare ad una IA in grado di competere con quella umana.

 

L’espandersi dell’Internet delle cose (IoT, Internet of Things) apre nuove possibilità all’evoluzione nelle applicazioni dell’intelligenza artificiale, poiché, se questa è attualmente limitata nell’ambito di applicazione, più programmi di IA interconnessi tra loro tramite l’IoT possono portare alla creazione di una rete nevralgica in grado di gestire in autonomia un intero sistema, come ad esempio quello urbanistico. È in quest’ultimo caso che si parla di smart city, la città intelligente a cui molte amministrazioni locali dei Paesi più sviluppati stanno puntando per una automatizzazione crescente dei servizi e delle attività municipali. L’implementazione e la combinazione di IA, algoritmi di autoapprendimento (ML, machine learning) e connettività diffusa sono in grado di raccogliere enormi quantità di dati all’interno della città, trasmetterli ad un server centrale ed elaborarli in modo da poter rendere più agevole la gestione del traffico urbano, ma anche di poter operare nel settore della raccolta differenziata dei rifiuti e in quello sanitario. Per il momento AI, ML e IoT hanno trovato un’applicazione prevalente nel settore della gestione del traffico, sempre più congestionato nelle grandi metropoli, ma le potenzialità di applicazione in futuro sono vastissime, soprattutto per la crescente necessità di ridurre i costi ed ottimizzare le risorse disponibili migliorando la qualità di vita dei cittadini, in termini di sicurezza, infrastrutture, ambiente e sostenibilità.

 

Occorre tuttavia puntualizzare che una smart city non è una città dotata di tecnologia IoT o che “usa” semplicemente internet. La città intelligente del futuro è un network integrato, un “cervello” all’interno del quale interagiscono, comunicando tra loro, tecnologia, amministrazione, infrastrutture e cittadini. IA e ML consentono di monitorare i trend della vita quotidiana di una città, adattandosi poi alle necessità per renderle più efficienti ed efficaci. Ad esempio, si potranno individuare anche senza segnalazione diretta incidenti, incendi, disastri di varia natura permettendo tempi di intervento più rapido e in tempo reale disporre segnalazioni di viabilità per individuare percorsi alternativi al fine di evitare ingorghi nel traffico, agevolando la circolazione e con effetti positivi sui consumi e sulle emissioni di CO2. Allo stesso modo una smart city può offrire maggiore sicurezza grazie ai supporti tecnologici e alle informazioni immediatamente disponibili alle forze dell’ordine che agevolano il loro intervento sul territorio, tra cui l’individuazione di criminali o anche di chi commette reati minori e violazioni di varia natura. E ancora, si pensi alla cronica mancanza di parcheggi nelle grandi metropoli: i sistemi applicati di intelligenza artificiale possono intervenire sia nel senso di individuare e segnalare agli automobilisti i parcheggi disponibili in zona, sia nel senso di evidenziare alle amministrazioni dove vi è necessità di realizzarne di nuovi. Infine anche nell’illuminazione pubblica la IA può trovare applicazione in modo da razionalizzarne i consumi.

 

Per gli inevitabili risvolti economici, sempre più aziende si stanno interessando alle applicazioni di intelligenza artificiale e machine learning, spesso unite in collaborazioni per progetti di smart city: aziende come AT&T, Cisco, GE, IBM. Recentemente la GE ha sviluppato negli Stati Uniti un sistema di riconoscimento delle targhe automobilistiche (LPR – Licence Plate Recognition) che viene utilizzato già nella città di Galveston per la prenotazione e il pagamento del parcheggio tramite cellulare, ed è anche in grado di individuare eventuali vetture parcheggiate illegalmente.

 

Lo sviluppo di AI, ML e IoT, sembra dunque essere la soluzione per migliorare la qualità della vita in centri urbani sempre più congestionati dal traffico, sempre più popolosi e con crescenti problemi di gestione e di sprechi. Ma anche in questo caso la trasformazione della città in una rete di interconnessioni non è priva di criticità. I principali applicativi di IA si basano su sensori di videosorveglianza diffusi capillarmente sul centro urbano. Questo comporta un monitoraggio continuo della popolazione e dei suoi movimenti, oltre al fatto che il sistema raccoglie ingenti quantità di dati personali di ogni tipo che poi vengono processati a seconda del tipo di servizio per il quale vengono di volta in volta utilizzati. È chiaro che il prezzo da pagare è una significativa riduzione della privacy e la possibilità di essere controllati quasi in ogni momento della giornata (in realtà anche dentro casa, con gli assistenti vocali già presenti in molte case). Questo è un terreno su cui le amministrazioni si dovranno muovere con rinnovata attenzione, valutando attentamente anche gli aspetti riguardanti la eccessiva limitazione della libertà dei cittadini ed evitare il rischio di creare società efficienti ma forse meno libere.

THE END OF REGULAR AND CONVENTIONAL WARFARE

By Giancarlo Maragucci

 

Conventional and regular warfare usually evokes images from movies recounting battles of previous centuries, where armies fought in limited spaces, maybe a valley, and generals were monitoring from the top of a hill, waiting for the end of clashes. Battles were usually far from civilians and cities. Two global wars showed how new weapons and airplanes could enlarge the battlespace to entire nations and regions, but still the war was mainly (even if not exclusively) a trained and professional armed forces issue. The forces on each side were well-defined and fought using weapons that primarily targeted the opposing army.

 

Today the term “conventional” is used to define a form of warfare conducted by using conventional military weapons, and not with chemical, biological, or nuclear weapons; moreover, based on the definition of “regular warfare” as a war undertaken by regular forces between the countries, it can be argued that “irregular warfare” is a concept that refers to situations of war where at least one of the warring parties is not a “regular” country and therefore, does not use a regular army in the war. The term “irregular warfare” is also accompanied by several characteristics, such as the non-use of regular war tactics, the difficulty of observing the regular norms of war, and the tendency for the war to drag on for a long time without arriving at a conclusion because the party using the “irregular” army is avoiding a decisive battle, or because of the absence of a decisive gravity point such as the capital of a country (See: The Conceptual Definition of “Irregular Warfare” and the Today’s International Security Environment by Tetsuya Endo).

 

Basically, conventional and regular warfare describe a way of fighting that encompasses the doctrinal thinking, the organizational structures, the rules of engagement, and even the appropriate goals of violence. Besides terroristic or rebel organizations, also nations learnt that irregular warfare is very quick and effective, reaches the objectives at a much lower costs compared to official army and it is extremely difficult to track (and judge) the actions on the ground. Therefore, if on one side many power States around the world increase their military capability year after year, it is also true that the same nations increase the sponsorship of unofficial armies or organizations to fight a competitor on a neutral battlefield. Iraq, Syria, Libya, Yemen, Ukraine are considered just battle areas of so-called proxy war, that is, a war supported by a major power which does not itself become involved.

So, proxy looks like a hidden alliance, maybe more like a sponsorship and has probably one positive aspect: to keep the conflict to a low intensity level, avoiding escalation.

 

Proxy wars have proven their effectiveness through the years, so why keeping increasing the spending and training of regular and conventional forces?

 

Usually the answer points to the readiness for a possible future conventional war, but probably the only true reason is deterrence, defined as “the action of discouraging an action or event through instilling doubt or fear of the consequences”. During the Cold War the real deterrence was the nuclear arsenal of both sides, today the concept has shifted to the conventional and integrated capabilities on all five domains, land, sea, air, space and cyberspace.

 

A nuclear war would bring to a world suicide, and nuclear capability is really considered as a last action just before dying, while military conventional deterrence, based on a strong and trained army, could seriously affect the enemy’s actions and decision making.

 

If it is true that in the future there will be no open and official military confrontation between major powers, it is also foreseeable that we could assist to multiple small scale events like laser shots (that are invisible to human eye), warships confrontations in international waters, anonymous cyber-attacks, space collisions and close fly-by. Proxy wars, though, will keep existing.

COLLECTIVE COGNITIVE BIAS IN THE SOCIAL ERA

by Cristiano Galli

 

This article was drafted before the COVID-19 global issue exploded. Most recent events offer the opportunity address the subject of this article from a different perspective. Initially the title was “Are social media improving or reducing collective intelligence?”, but the globalized reaction to COVID-19 has triggered a new approach.

 

The level of connectedness of the globalized world is generating a new form of collective intelligence. Individual brains, like never before, through social media and information sharing in general, are linked and joined in the process of sense making, influencing social behaviors.

 

The ability of a social group to process information in a smart way has been defined by James Surowiecki as “Crowd Wisdom”. In his extraordinary 2014 book “The Wisdom of Crowds” Surowiecki explains the principles that enable a non-expert group of people to take wise decisions even in seemingly expert related context.

 

The question arising in this article is: is the globalized social information processing making the world smarter or dumber?

 

Let’s briefly introduce the principles mentioned by Surowiecki. He argues that a crowd requires four elements in order to be able smartly solve cognitive, coordination and cooperation problems. First: information has to be shared to the processing agents (in this case processing agents are people), without filtering. Second: processing agents need to maintain a balanced level of diversity and, third, autonomy in their information processing function. Fourth: there should be some form of aggregating function collecting the distributed processing into a collective output.

Lacking one or more of these elements, crowd decision-making process becomes less and less smart.

 

The first issue to address, which usually encounters expert resistance, is the fact that a group of non expert decisions could result smarter than the decision taken by an individual holding subject knowledge and expertise. For, as weird as it could sound at first glance it has already been scientifically proven in many fields: from guessing the solution of a cognitive problem to fixing the price of a product in a free market, and to regulate tax paying and traffic.

 

How can this phenomenon be explained? Crowd elaborated solution contains two parts: the solution itself and a related error. While effective solutions aggregate, errors – coming from autonomous and differentiated processing – elide each other, reducing dramatically the overall error.

 

Let’s try now to analyze this process from social media processing perspective. Information sharing happens to the speed of light, but it is not free from embedded biases. Information is hardly ever shared in the form of crude data, mostly is attached to already packed opinions that hinder the first principle for collective smartness. Shared information already contains part of the elaborated solution and so influence negatively the ability of the distributed agents to perform their processing function. Crowd processing becomes more like a resonance box for already processed solutions.

 

Another issue is the motive behind information distribution. Instead of distributing data, most modern media are entangled in a form of information sharing speed race. Speed is hampering the quality of the shared information. Recent studies on the diffusion speed and reach of fake news have demonstrated that fake news act on individual brain processing gaps, acquiring a much higher ability to be diffused in the globalized information system. Our brains are more prone to react to information that is perceived as “different” and “strange” than information that matches more with the mainstream perception. Daniel Kahneman, in his Noble Price scientific production has distinguished two systems in the neural processing for decision making. System 1 is mostly connected to our most ancestral limbic system. System 1 is the automatic, associative, quick and energy efficient part of the brain. It has evolved in order to provide us with a quick decision making tool to survive. Think about one of our ancestors walking in the African savannah thousands of years ago. He saw some grass moving at distance. It could be a threatening animal or simply the wind. He needed a brain system to react quickly in order to maximize his ability to survive. System one kicked in, addressing the grass movement as a threat and supporting his evolutionary behavior to escape. He might be right (it was a saber tooth tiger) or he might be wrong (it was just the wind), but in each case, it is survival had been guaranteed. The more advanced System 2 is instead the rational and cognitively more reliable decision making tool. System 2 is less prone to mistakes, very effective in complex decisions, but it is slower than System 1 and consumes a lot of energy. Fake news diffusion rate is mostly effected by System 1 processing.

 

Going back to media motives while spreading information, we can assume that the need to guarantee speedy and deep diffusion of information is forcing modern media to use System 1 distributed processing. While being successful in the acquisition of “likes” and “shares”, this kind of information distribution is hampering collective wisdom first principle.

 

Speaking about the second principle: diversity and autonomy. Globalization is reducing diversity, while being all connected through social is also reducing the ability to process autonomous thinking. In one way or another, through social media sharing, we tend to aggregate out thinking to an already existing solution and the opinion of our social group is influencing our ability to remain different and unique in our decision making process. It is like we are loosing our individual autonomy in favor of an already formed social tribe opinion.

 

Last but not least, the aggregating function that enables the aggregation of distributed information processing into a collectively sound solution is also hindered by the inability of modern democratic politics to think with long term perspective and being instead completely focus on the “need to be reelected” short term perspective. This has always been the crucial distinction between statesmen and politicians. Statesmen should be able to think about future generations and rule accordingly, Politicians only think about next election and doing so miss completely out on the long term sustainability of their ruling.

 

Getting back to COVID19 issue, the collective delirium that is hitting the world population can be seen as a perfect case study for the ongoing failure of crowd wisdom principles in the social media information diffusion process.

 

Most of the distributed information has been tagged with System 1 effecting opinions, pushing on people most embedded biases of fear and uncertainty avoidance.

 

Decentralized information processing agents (world population) lost the ability to exercise differentiated and autonomous information processing, becoming a simple sound board amplifier of already packed diffused fear perceptions.

 

Governments have failed to provide any aggregating rational (System 2) function to the distributed fear processing, leveraging exponentially on the panic diffusion.

 

As always, when dealing with complex problems, we do not have a pocket solution to the ongoing phenomenon, but we can clearly state that the present information processing through social media is effective negatively the ability of the crowd to act smart. Social media communication is making the crowd dumber instead of smarter.

 

 

 

 

THE ROLE OF THE AIR FORCE IN THE NATIONAL STRATEGY

By Giancarlo Maragucci

 

It is common to hear about national and military strategies, but it is not easy to define their relations and implications. Yet the role of the military should be aligned with both, and the Air Force should ultimately define its own character framed by the national strategy. Using open source information, the following is an attempt of understanding how the Air Force should shape its future based on national/military strategies.

 

National Grand Strategy or National Strategy?

 

Grand Strategy or High Strategy includes the “purposeful employment of all instruments of power available to a security community”.

Grand Strategy is the highest level of national statecraft that establishes how States, or other political units, prioritize and mobilize which military, diplomatic, political, economic, and other sources of power to ensure what they perceive as their interests. Depending on one’s theoretical perspective, these perceived interests focus the minimal goal of ensuring the State’s survival, pursuing specific domestic interests or establishing a specific regional or global order. The “grand” in the concept is often confused for grandiose or ambitious; however, it does not suggest expansive goals but rather the managing of all the State’s resources toward the means of the State’s perceived ends.

 

The prominent theoretical approaches to the study of grand strategy in political science accept the interplay between threats and opportunities of the international environment and the constraints or drivers of domestic politics. Some authors use terms other than Grand Strategy, such as National Strategy or Foreign or Security Policy, in nearly the same sense. In practice, it can be difficult to establish clear distinctions between these concepts and Grand Strategy.

 

From Grand Strategy to Military Strategy

 

A country’s political leadership typically directs Grand Strategy with input from the most senior military officials. Development of a nation’s Grand Strategy may extend across many years or even multiple generations. All nations own some grand strategies and affiliated, but subordinate, military strategies. The former refer to the totality of resources and how they are used to achieve policy goals, the latter pertain to the economic resources and manpower needed to sustain the armed forces and achieve military objectives.

 

Four variables prove to be significant determinants of Grand and Military Strategies:

 

  • A State’s strategic geographic and political environment;

  • National resources;

  • Ambitions and effectiveness of the political leadership;

  • A country’s strategic culture.

 

The interaction among these four variables proves to be particularly significant in shaping Grand Military strategies.

In the hierarchy of strategies, then, Military Strategy resides just below Grand Strategy and should in theory bring detail to the grand strategic use of the military instrument of power. 

 

The Military Doctrine

 

Military doctrine is an important part of the building material for military strategy. It represents central beliefs or principles for how to wage war in order to achieve the desired military ends.  Doctrine thus provides ways to use military means against a given type of threat or scenario. Doctrine thus has implications for force structure, training, and equipment.

The ideal military doctrine would be truly joint – i.e. integrating land, air, maritime, and special operations in an efficient and effective way to achieve the military objectives – and flexible enough to deal with any kind of foreseen and unforeseen threats, as well as a range of political objectives.

 

The role of air force

 

National Strategy can only be pursued with an integrated force of military and non-military national entities and organizations, and the air force plays a fundamental role in pursuing the freedom of access of air, space and cyberspace domains, maintaining information superiority and guaranteeing the security and resilience of national technologies, all under a secure Command and Control service.

 

Besides the different National and Military Strategies around the world, the air forces share some common features, all of them converging in the term airpower. Airpower is the ability to project military power or influence through the control and exploitation of air, space, and cyberspace to achieve strategic, operational, or tactical objectives.

 

Due to speed, range, and its multidimensional perspective, airpower operates in ways that are fundamentally different from other forms of military power; thus, the various aspects of airpower are more akin to each other than to the other forms of military power. Airpower is the product – not the sum – of air, space, and cyberspace operations. Each depends on the others to such a degree that the loss of freedom of action in one may mean loss of advantage in all other domains.

 

An American study analyzed six emerging trends with implications for the airpower:

 

  • Adversaries’ acquisition and development of capabilities to challenge the Nation;

  • Increasing importance or frequency of irregular, urban, humanitarian, and intelligence operations;

  • Increasing challenges to deterrence;

  • Energy costs;

  • Exploiting new technology opportunities;

  • Challenges of climate change.

 

From now until 2030, the technological advances reshaping the globe may cause the air force to evolve from an air, space, and cyber force to a cyber, space, and air force, with an emphasis very different from that of today. While this will clearly be a vulnerability to those unable to adapt, it also becomes an enduring advantage for others.

 

“Strategic” in this context refers to the national security implications of how the air force organizes, trains, equips, and employs its personnel, and therefore preparing for a threat based solely on current geopolitical realities will be insufficient. Even if national and military strategies embrace long term applicability, the air force needs to evolve and adapt continuously in a volatile, uncertain, complex and ambiguous environment.

INTELLIGENZA ARTIFICIALE AL SERVIZIO DELLE EMERGENZE

di Cristiana Era

 

L’emergenza sanitaria che stiamo affrontando in queste settimane sta mettendo a dura prova l’amministrazione e la gestione di tutto il Paese. I media ne stanno parlando anche troppo. Peccato non aver utilizzato l’argomento per parlare invece del futuro. Si può ipotizzare che quello che stiamo affrontando oggi è solo un assaggio di quello che ci aspetta anche in futuro. Il nostro mondo e le nostre società sono radicalmente cambiate, così come la nostra percezione di cultura, di comunicazione, di relazione e anche di produzione in termini economici grazie alla dimensione virtuale che si affianca a – e a volte addirittura si impone su – quella reale.

 

Ma come le società umane e le strutture su cui poggiano si evolvono, anche l’ambiente si evolve cercando di adattarsi e di “sopravvivere” ai cambiamenti generati dall’uomo. Potremmo assistere alla ricomparsa di malattie debellate ma anche all’arrivo di nuove malattie, o semi-nuove come nel caso corrente, se si tratta di una mutazione di agenti patogeni già esistenti. Ed è proprio la mutazione che ci dà la misura di una reazione ambientale ai cambiamenti.

 

Se sarà così, ed è una possibilità non una certezza, allora occorre pensare oggi come reagire domani senza essere di nuovo alla mercé di decisioni dell’ultimo minuto. Cosa si può fare? Non certo miracoli, ma la tecnologia può venire in aiuto: occorre sfruttarla non più solo per facilitare e allietare la vita di tutti i giorni, ma soprattutto per gestire situazioni di emergenza aumentando l’efficacia degli interventi e migliorando la capacità di risposta dei centri urbani. In particolare, le amministrazioni dovrebbero cominciare a studiare un modo per sviluppare in settori cruciali un utilizzo diffuso dell’intelligenza artificiale (IA) e del machine learning, che in campo sanitario può avere vastissima applicazione, razionalizzando risorse e strutture, persino ridurre le possibilità di contagio.  È uno dei temi che viene trattato in questo numero. Lo smart hospital sarà una delle componenti delle smart city, le città del futuro dove la IA garantirà efficienza, sostenibilità ambientale e migliore qualità della vita. Esistono già, ma i progetti più avanzati sono ancora al di fuori dei confini italiani, nonostante molti dei nostri centri urbani vengano definiti smart city. Maggiori investimenti pubblici oggi in progetti di IA potranno davvero amplificare le capacità di reazione delle nostre comunità a disastri ambientali e sanitari imprevisti e imprevedibili.

UN’AMERICA SENZA LEADERSHIP È UN PROBLEMA DI SICUREZZA

di Cristiana Era

 

Cosa dobbiamo aspettarci dopo la morte del generale iraniano Qasem Soleimani, ucciso qualche giorno fa da un raid americano? Nonostante le mille ipotesi già prospettate da commentatori e stampa internazionale, non è facile prevedere la reazione di Teheran. Certamente ci sarà un innalzamento delle tensioni nell’area mediorientale, e non solo, grazie ad una azione che chiaramente non fa parte di una strategia militare o di politica internazionale ma di uno dei tanti colpi di testa di uno dei Presidenti americani più controversi, il terzo nella storia degli Stati Uniti contro cui è stata avviata la procedura di impeachment.

 

La leadership religiosa sciita, invece, probabilmente reagirà all’uccisione del suo generale dopo aver attentamente ponderato le varie opzioni a sua disposizione. Nonostante la naturale impennata dei toni minacciosi, non è da scartare l’ipotesi di ricorrere ad azioni che non portino ad un conflitto aperto, ma più semplicemente ad un confronto/scontro di bassa intensità o di aperta conflittualità per procura. Dai blocchi lungo lo stretto di Hormuz, lungo il quale transita una parte significativa del commercio marittimo internazionale, ad attacchi tramite attori regionali sotto la propria influenza (Hezbollah in Libano, gli sciiti in Iraq, gli Huti in Yemen e Assad in Siria), per non parlare di cyber attacchi: ecco alcune ipotesi da considerare, alcune più probabili di altre.

 

È la quinta dimensione, ancora una volta, che può diventare il vero terreno di scontro capace di dare soddisfazione senza temere le conseguenze di una ulteriore azione diretta. Nel cyberspazio, lo sappiamo, si possono combattere guerre di informazione (o disinformazione), economiche e anche politiche. E difatti, già da vari mesi sono state segnalate “prove di intrusione” di hacker iraniani nei siti statunitensi legati alle organizzazioni che si occupano di campagne elettorali. Erano tentativi in vista dell’imminente campagna presidenziale, ma alla luce di quanto accaduto potrebbe diventare una strategia pianificata per influenzare le prossime elezioni. Sicuramente una possibilità che potrebbe allettare Teheran: un esercito di hacker in grado di destabilizzare il sistema di voto, di influenzare le preferenze, di mobilitare e disinformare l’opinione pubblica, di manipolare dati e opinioni: una guerra senza sparare, ma con effetti altrettanto dirompenti. Del resto, come abbiamo sottolineato in passato su questa rivista, la Russia ha ampiamente dimostrato come ciò sia possibile nelle elezioni passate che hanno dato la vittoria, proprio grazie all’ingerenza di Mosca, a Trump.

 

Intanto l’Iran si è ritirato dai negoziati sul nucleare, e questo era quasi scontato. Quello che invece appare evidente a molti ma che Paesi come USA e Israele non riescono ad accettare è il fatto che l’Iran gioca e giocherà sempre un ruolo fondamentale nella regione mediorientale. Se poi si considera che è anche uno dei pochi Paesi stabili e coesi dell’area, diventa essenziale riuscire a stabilire dei rapporti di collaborazione, non acuire i motivi di scontro, che non giovano agli Stati Uniti nel lungo periodo, certamente non ad Israele, chiuso da sempre nelle sue logiche da “accerchiamento”, e meno che mai al resto della comunità internazionale.

 

Si può ipotizzare un nulla di fatto da parte iraniana se non nella propaganda ufficiale? La risposta è negativa. Teheran, anche solo per salvare la faccia, non può non rispondere alla provocazione dell’uccisione del suo generale. È il tipo di risposta che farà la differenza tra una escalation verso la guerra aperta o una serie di ritorsioni da entrambe le parti, che forse non porteranno ad uno scenario apocalittico, ma che certamente rialzeranno le tensioni in un’area geografica da sempre in equilibrio precario, oltre ad annullare i progressi nei negoziati così faticosamente raggiunti fino ad oggi in una regione in perenne equilibrio precario. E a pagarne le conseguenze non saranno gli iraniani e gli americani. O perlomeno non solo loro.

2019: UN BILANCIO DELLE NUOVE E VECCHIE MINACCE CYBER

di Serena Lisi

 

Se il 2018 è stato l’anno di avvento e declino dei ransomware (sequestro di dati digitalizzati e profili per chiedere un riscatto), il 2019 è l’anno delle nuove botnet, robot networks, reti di elaboratori che mantengono attivi in maniera fraudolenta servizi web spesso usati per scopi illeciti. Proprio nell’ultimo mese dell’anno è scattato l’allarme a proposito di una nuova variante di Gold Brute, definito dagli analisti di CybergON (business unit di Elmec Informatica) come l’ultima frontiera delle botnet.

 

Una sorta di insidioso “ritorno al passato”, che conferma il trend già visto nel 2018, segnato a sua volta dal ritorno del phishing, ossia del furto di dati sensibili realizzato per mezzo di inganni quali finte e-mail di istituti di credito, organi ufficiali e associazioni, che richiedono credenziali e informazioni personali e/o aziendali. Anche se il phishing miete ancora molte vittime, è possibile, tuttavia, affermare che ormai è una minaccia nota le cui azioni e finalità sono comprese dalla maggioranza degli utenti della rete, che magari peccano di ingenuità o si ritengono “immuni”, ma che comunque conoscono il meccanismo e i   risultati della frode messa in atto.

 

Diversamente, la minaccia del “nuovo” Gold Brute e, più in generale di tutte le botnet non è ancora stata compresa a fondo, sia dai privati cittadini che dagli imprenditori. In sostanza, la botnet non è altro che una rete di computer o dispositivi informatici infettati da un malware, che accedono ad alcuni servizi di rete all’insaputa del proprietario e degli utenti autorizzati all’uso dei dispositivi stessi. Tali dispositivi, non a caso, sono spesso definiti zombie, poiché vengono controllati subdolamente da un cosiddetto botmaster, ossia da un soggetto che impartisce le informazioni fraudolente da accessi remoti e nascosti.

 

La nuova variante di Gold Brute pare essere particolarmente insidiosa, poiché, tramite i dispositivi infettati, riesce a individuare e sfruttare server che espongono il servizio RDP (Remote Desktop Protocol), in modo da utilizzare credenziali deboli (cioè non protette da sistemi di crittografia e firma crittografica forti) o rubate. Il botmaster che utilizzerà Gold Brute in questa sua nuova versione, dunque, non disporrà solo della cosiddetta potenza di calcolo del dispositivo infettato, ma anche di una molteplicità di credenziali – quindi di identità altrui – ottenute proprio tramite ogni device zombie a propria disposizione nella rete. La particolarità di questa versione del malware consiste nel fatto che esso dispone di più punti di accesso per ogni singolo dispositivo attaccato, per poter eseguire anche solo una parte del codice malevolo, indipendentemente dall’esecuzione del malware stesso per intero: in altre parole, una volta infettata, l’apparecchiatura colpita può far partire sia una che tutte le azioni previste da Gold Brute. Tali azioni vanno dagli attacchi brute force, che permettono di ottenere password di ignari utenti analizzando e provando tutte le possibili combinazioni crittografiche legate alla predetta utenza, fino a trovare quella giusta, all’uso di una library (archivio interno) di password già ottenute, fino all’individuazione pseudocasuale di indirizzi IP di server da utilizzare per attivare i servizi richiesti dal botmaster.

 

La particolarità delle insidie sopra descritte risiede nel fatto che questo nuovo Gold Brute non si avvale di un solo protocollo per compiere i propri attacchi: oltre al già citato RDP per accedere a servizi web che richiedono credenziali, riesce ad utilizzare anche i protocolli SSH (Secure Shell) e Telnet, per l’accesso remoto a connessioni tramite righe di comando. La questione particolarmente difficile da capire per l’utente medio riguarda proprio il binomio inganno – brute force, ossia la dicotomia tra mezzi di persuasione fraudolenta e mezzi di vero e proprio “scasso elettronico”: infatti, Gold Brute si nasconde dietro il file eseguibile javaw.exe, scaricato sul dispositivo attaccato insieme al Java Runtime, ad alcune libraries in formato DLL e ad un archivio ZIP protetto con la password XHr4jBYf5BV2Cd7zpzR9pEGned. Il file eseguibile javaw.exe è solo apparentemente lecito, quando invece contenente due file di testo che attivano le “porte”, ossia gli accessi remoti e le azioni di brute force. Questa combinazione di accesso fraudolento e scasso violento ha finora censito, a detta degli esperti, ben 4 milioni di macchine, che possono avere accesso al milione e mezzo di server già presi di mira entro il giugno scorso dalla vecchia versione di Gold Brute, di per sé già piuttosto insidiosa. La riflessione che emerge da questi ultimi fatti è, dunque, la seguente: le “vecchie” e già note minacce non devono mai essere sottovalutate perché, così come virus e batteri patogeni (da cui spesso prendono ispirazione) che attaccano l’uomo e gli altri esseri viventi, si evolvono continuamente, diventando tanto più resistenti e resilienti quanto più lo sono i sistemi da esse attaccati.

2000-2020: RIFLESSIONI SU VENT’ANNI DI PERCEZIONE DELLA SICUREZZA CIBERNETICA

di Serena Lisi

 

Il nuovo millennio è iniziato all’insegna di molte aspettative, ma anche di molte paure, come ad esempio quella che attanagliò le menti di milioni utenti dei servizi telematici a proposito del cosiddetto Millennium Bug. Con tale nome, era designato un fantomatico malfunzionamento dei datari di dispositivi elettronici quali computer, ATM e telefoni cellulari, che sarebbero dovuti “impazzire” allo scattare della mezzanotte del primo gennaio 2000, in virtù del fatto che molti di essi – a detta dei più apprensivi – non avrebbero riconosciuto il nuovo anno, utilizzando un datario che segnalava l’anno in corso con sole due cifre, le ultime, avendo un formato del tipo gg/mm/aa (numero giorno/numero mese/ultime due cifre dell’anno).

 

Per la prima volta, in tempi non sospetti e ben lontani da quelli dell’attacco del 2007 all’Estonia, e da quelli del 2007 e 2010 all’Iran, la società civile del mondo intero fronteggiava una nuova minaccia che ancora non aveva un nome codificato: il DDoS, Distributed Denial of Services. Se il Millennium Bug avesse colpito così duramente come temuto, infatti, il risultato, seppur accidentale e non doloso, sarebbe stato esattamente un DDoS, ossia una interdizione massiva di servizi, anche primari, come quelli bancari o legati al mondo delle telecomunicazioni, che avrebbero bloccato moltissime attività quotidiane e creato, sempre involontariamente, l’equivalente di attacchi sintattici (cancellazione di informazione) e semantici (creazione o mescolanza errata di informazioni) a banche dati grandi e piccole, fossero esse gestite da comuni cittadini, da enti pubblici o grandi aziende private. Nel 2000 tutto questo non accadde: ci fu soltanto una grande paura e qualche piccolo malfunzionamento o sovraccarico di linee e furono isolati i casi di errore semantico nelle banche dati, riconducibile più che altro a qualche malinteso sulla certificazione di alcune date a doppio zero, talora bizzarramente equivocate tra 1900 e 2000.

 

Tuttavia, la “grande paura” di quel capodanno aveva segnato l’avvento di una nuova epoca e, soprattutto, di una nuova consapevolezza: seppur molto lentamente e superficialmente, alcuni cominciavano a comprendere che la quinta dimensione non era solo un territorio virtuale di libertà, ma era anche il regno dell’incertezza e dell’anarchia e che servivano più adeguate informazioni per tutti ed un framework normativo che tutelasse utenti, produttori e gestori delle comunicazioni in rete. Non a caso, proprio nel 2000 l’Unione Europea cominciò a lavorare alla Convenzione di Budapest, ratificata dal Consiglio d’Europa il 23 novembre 2001.

 

Come spesso accade per le innovazioni tecnologiche, tuttavia, la regolamentazione della materia ha avuto, in questi ultimi venti anni, un’evoluzione molto più lenta e discontinua rispetto al progresso tecnologico. Alcuni esempi sono particolarmente calzanti in questo caso: la normativa dei singoli Paesi europei si è adattata con molta lentezza alla convenzione di Budapest, come dimostra il caso italiano con la legge 48/2008; inoltre, anche a livello globale, seppur contemperata da svariati accordi bi- e multi-laterali e iniziative, l’incertezza in campo normativo e di regolazione continua a persistere, peraltro sostenuta dalla naturale e attestata tendenza all’anarchia e all’entropia del sistema internazionale. Non è un caso che il Wassenaar Arrangement non abbia mai sortito appieno gli effetti desiderati: nato nel 1996 per controllare le esportazioni e l’uso di certi tipi di prodotti – ed in particolare quelli dual use, che possono essere impiegati sia per scopi civili che militari/bellici – e riletto alla luce delle innovazioni cyber nel 2004, conta ormai più di quaranta aderenti, tra Stati ed organizzazioni regionali, ma non riesce ad avere un effettivo controllo su alcune categorie, come quelle immateriali inserite con gli emendamenti del 2013 e riguardanti IP, social networks e bug bounty programs (ricognitori, non sempre così leciti come immaginato, di difetti in programmi e applicazioni).

 

Lo stesso discorso potrebbe essere fatto sia sulla collaborazione russo-americana in materia di difesa cibernetica delle infrastrutture critiche promossa nel framework dei più noti e strutturati accordi START, edizione 2011 (ferma allo stato di bozza da quasi dieci anni) e sul pur encomiabile ed accuratissimo lavoro del Tallinn Manual on the International Law Applicable to Cyber Warfare, che però resta confinato alla cosiddetta sfera de jure condendo, ossia della normativa in fase di formazione e recepimento a livello nazionale ed internazionale, dunque non vincolante né uniformemente condivisa. 

 

Molte altre riflessioni potrebbero essere fatte in materia normativa, a partire ad esempio da quelle ispirate dal GDPR in materia di protezione dei dati personali e sensibili, ma in questa sede appare più opportuno fermarsi agli esempi già citati ed analizzare brevemente un altro aspetto di questo primo ventennio dei XXI secolo, quello della percezione delle minacce cyber a livello operativo. Anche in questo caso, molte sono le osservazioni scaturite dal modo di trattate la “grande paura” creata dal mito del Millennium Bug del 2000. In fondo, però, il tutto può essere ridotto un unico commento finale: oggi come allora, moltissimi enti, anche in questo caso sia pubblici che privati, temono più il danno d’immagine che i danni materiali derivanti da un malfunzionamento o da un attacco. Come accade sistematicamente sin dal 2000, i rapporti Verizon e FireEye rivelano che svariati enti e aziende negano con decisione le proprie vulnerabilità e tendono a nascondere eventuali attacchi o danni subiti, pur cominciando a riconoscere la necessità di aggiornare i propri sistemi e la formazione del personale, nonché l’urgenza di adottare soluzioni resilienti ed in grado di offrire risposte integrate e multilivello alle minacce che devono affrontare quotidianamente.

 

Se, in un così breve discorso, dovessimo stilare un bilancio sommario di questi vent’anni, potremmo dire che la percezione di potenzialità e minacce dell’ambiente cyber si è solo in parte evoluta: siamo tutti più informati, anche grazie a sistemi di comunicazione sempre più veloci e penetranti; ma siamo anche più incerti su quali siano le informazioni vere e quelle distorte e sulla reale entità delle minacce che ci circondando, nonché sull’efficacia dei sistemi di difesa – sempre più sofisticati – proposti dagli esperti di settore. Inoltre, nonostante questa nostra apparente nuova consapevolezza, spesso continuiamo a utilizzare i mezzi cyber con estrema leggerezza, quasi a voler negare ciò che dovremmo aver ormai acquisito come parte del nostro bagaglio culturale di base.

ARTIFICIAL INTELLIGENCE, POLICING SECURITY AND PRIVACY: A DIFFICULT TRADE OFF

by Cristiano Galli

 

A professional burglar breaks into an apartment, swiftly moves to the safe and using acid breaks the locks and steals 3 million AED (roughly 750k euros). In real time, the apartment safety cameras, connected to the centralized Artificial Intelligence Police System, catch the burglar facial print and starts backtracking his movements and pattern of life. The Artificial Intelligence (AI) system tracks the burglar arriving at the airport 48 hours earlier, checking into a hotel room and leaving dressed as a woman with the traditional Arabian abaya. Fourty-seven minutes after breaking into the apartment, police forces storm into the hotel room and arrest the suspect.

 

It looks like a scene from the famous movie Minority Report, in which a hybrid human machine intelligence system was used to prevent crimes by forecasting the future. But actually, this happened last November in the town of Dubai in the United Arab Emirates. In 2019, as stated by Dubai Police officials, 319 suspects were brought to custody with the support of thousands of CCTV cameras under the Oyoon (Eyes) project that employs artificial intelligence.

 

Police officials recently stated: “The cameras cover tourist destinations, public transport and general traffic. They helped arrest 319 suspects in different areas in Dubai through their automatic facial recognition technology. Under the AI network, security cameras across the city relay live images of security breaches to the Central Command Centre. The cameras monitor criminal behavior in three sectors — tourism, traffic and brick and mortar facilities. The project will tackle crimes in the city as using AI and latest technologies will help realize zero crimes in the future. For example, we have 5,000 cameras in the Metros and thousands more in the city. The cameras were able to detect wanted vehicles by identifying their plate number… AI will give surveillance cameras digital brains to match their eyes, letting them analyze live video with no human intervention”.

 

The United Arab Emirates (UAE) has launched its national AI strategy in 2017 in nine sectors: transport, health, space, renewable energy, water, technology, education, environment and traffic. Uniquely, the UAE was the first State to appoint a State Minister for artificial intelligence. Notably, in the specific field of law enforcement, the Dubai Government also adopted the Dubai Police Strategic Plan (2018-2021), in line with a new General Department of Artificial in the Dubai Police, and a summit on AI-led policing “Future Societies 5.0” was announced. Similarly, the Centennial Vision 2057 of Abu Dhabi Police adopted in 2017 equally envisages a strong role for AI in Abu Dhabi and details more than 50 strategic initiatives harnessed by AI for the force. The UAE is reported to have made investments of 33 billion of Dh (9.0 billion of US dollar) in AI in 2017. One of the striking effects of living in the UAE is the constant and enduring perception of security. This pleasant sense of security contributes to a very high standard of living, but comes to a price.

 

Human Intelligence generally follows a sequence known as the sensation-perception-cognition-action information-processing loop. Sensors in our bodies intake data from the physical world (photons for vision, sound waves for hearing, vibrations for proprioception, chemicals for smell and so on). Data is then converted into information in the form of electro-chemical stimuli. That information is then used to think about what to do and then, once different options have been weighted, decisions are made and actions are taken.

 

 

Artificial intelligence works following pretty much the same principles. Machines process data coming from sensors converting them into usable information in order to create a picture of the surrounding world. This information is used to outweigh different options and come up with the best possible solution leading into action.

 

While there are many parallels between human intelligence and AI, there are stark differences too. Every autonomous system that interacts in a dynamic environment must construct a world model and continually update that model. The fidelity of the world model and the timeliness of its updates are the keys to an effective autonomous system.

 

AI systems, like human brains, need a huge amount of sensory information in order to recreate the best possible model of the living environment. In AI applications for public safety these sensory inputs come from thousands of cameras across public and private areas of the country. In the UAE, through a simple phone application, it is possible to connect your home safety cameras to the centralized AI Police System. An Artificial Intelligence System predicting potential law breaking situations constantly monitors your behaviors and pattern of life. This constant big brother over watch is obviously hampering personal privacy. Is this the price to pay to live in a safe and secure environment?

 

It is not a black and white easy answer. We should be aware that our private lives are already highly monitored. Every time we search something on Google, an AI system is collecting information about our interests. Every time we use a smart watch to go for a run, a GPS is tracking our patterns and our biological parameters. Every time we carry a smart phone with us we are giving away our position. It would be hypocritical to expect privacy once we are “connected”. The WEB is an information vacuum. The issue is not whether we can prevent our private information to be collected, but rather what this huge chunk of information is used for.

 

A digitally advanced State in which personal information are used to improve the standard of life could be considered utopian, in reality it is an achievable goal and the UAE are a leading Nation in this field of cultural and technological development.

 

It is an open debate, but the trade off between security and privacy is becoming a relevant issue in the uncertain world in which we are living.

AI WAR OR AI WARFARE?

by Giancarlo Maragucci

 

Today Google is giving more than 540 million results when searching for artificial intelligence (AI), and all over the world many countries and organizations invest billions of US dollars in it. Nevertheless, it is still the initial phase of what could be a new chapter of human kind, where real and electronic lives coexist in symbiosis.

 

Big data, machine learning, deep learning, so many language variations trying to explain that a machine, using a sophisticated algorithm, can manage a lot of information at light speed – and learn from experience – in order to imitate human brain processes and actions. Many applications are already in place in healthcare, banking, education: all implementing some sort of algorithm to help improving the efficiency of the processes.

 

The military community is also working on implementing AI but obviously the pace of introducing AI is slower than other fields, and this is due to the nature of the activities, related to war and warfare, to violence and death.

 

Before elaborating on AI for the military, it is important to define war and warfare, even if both are apparently and instinctively clear.  The term war is still not universally defined even if, in the popular sense, it is a conflict between political groups involving hostilities of considerable duration and magnitude. In social science, certain qualifications are added. Sociologists usually apply the term to such conflicts only if they are initiated and conducted in accordance with socially recognized forms. They treat war as an institution recognized in custom or in law. Military writers, on the other end, usually confine the term to hostilities in which the contending groups are sufficiently equal in power to render the outcome uncertain for a time. We need to agree that war is fight by nature.

 

About 180 years ago, von Clausewitz observed: “war should never be thought of as something autonomous but always as an instrument of policy”, and in 1939 the British Edward Carr divided international political power into three categories: military power, economic power, and the power over opinion. During the Cold War, the United States and its armed forces expanded those categories and developed a four-element schema known as DIME (Diplomacy, Information, Military, Economy). DIME expresses the power of a State (or organization or a Coalition) and it is commonly applied in modern operation planning processes, where all powers collaborate through separated and coordinated lines of effort to reach unanimously the end state. Besides the different views or definitions though, the nature of war remained unchanged through the centuries.

 

Warfare is in a continuous evolving status, where technology and brain process persist to race looking for new systems, sensors, weapons, in order to empower the fighters and the decision makers. New systems mean new training, improved TTPs (Tactics, Techniques and Procedures), in order to achieve new capabilities. The way we fight war, warfare, makes the diffrence every time we have a new tank, or ship or aircraft, and when we change doctrine or organization. Then warfare should define only HOW we fight, but nowadays the term is also associated with one of the 5 domains (air, land, sea, space, cyberspace) intending also WHERE we fight. If space warfare is how we fight in space and cyber warfare is how we fight in the cyberspace, how do we define, for example, Electromagnetic Warfare (EW) and Information Warfare (IW)? In these cases, warfare is associated with the instrument or group of instruments, for example the Electromagnetic Waves or the media systems, so we are defining essentially WHAT (we use for fighting).

 

Unfortunately, war and warfare are often confused and used inappropriately, for instance we hear a lot about generations of war, but it should be described as generations of warfare since we describe the evolution of fighting.

 

Where is then AI standing? AI cannot be considered a new domain (a new WHERE) and all AI applications are empowering present weapon systems, enabling a faster information analysis for more efficient and effective military operations. AI is then enhancing HOW. Till we get to autonomous operations.

 

Scenario: the Commander approves the list of effects on a decision point during the planning process, then the computer decides the actions (kinetic and non-kinetic), what manned and unmanned assets to task and the time to strike. The Commander will be notified about the assessment when mission is accomplished, and the effect achieved. Apparently, what has been described looks very similar to the existing process, maybe with a little of more automation and less human effort, but what about if on the enemy side there is also an AI driven system? In this case, both systems will start a real race in the information environment, trying also to disrupt the enemy’s AI processes with proper counter-AI operations.

 

AI versus AI: how do we call it? And when does it apply? AI will be implemented in many tactical systems, improving accuracy and capacities, but the key functions are mainly two:

         1. Operations Planning and,

         2. Command & Control (C2).

Here the AI will make the difference between the opponents, since the advantage will be measured based on the confidence level of information. Planning and C2 are both dependent on accuracy of information, in terms of intelligence and situation of the operational environment, and wrong plans and/or disrupted C2 can easily lead to mission failure.

 

It is then necessary to define AI Warfare, which could be “the ability to process autonomous decisions at operational and component level in planning and C2 of operations, disrupting enemy planning and actions”. AI warfare could impose own will to the enemy without shooting a single bullet or flying a sortie.

 

Therefore, if war is an act of violence intended to compel the opponent to fulfil our will then AI will probably lead to a possible new Cold War era, a war with no hostilities, where deterrence will not be dictated by the nuclear arsenal but by the fastest and most trained and networked super (maybe quantum) computers.