L’intelligenza artificiale sta diventando la seconda mente umana. L’ AI consiste nella simulazione dell’intelligenza umana da parte di macchine, in gran parte computer; essa crea sistemi che svolgono compiti all’altezza delle capacità dell’uomo, riducendo l’ apprendimento, i livelli di ragionamento, il problem solving, la comprensione lessicale.
Il timore è allora che AI possa sostituire l’uomo in qualsiasi settore, nelle sue funzioni abituali o più complesse, indebolendo le competenze, l’esercizio del pensiero, la capacità di analisi ed elaborazione, la valutazione critica costruttiva.
L’intelligenza artificiale lentamente è entrata a far parte della nostra vita. La costante evoluzione della tecnologia ha reso l’umanità sempre più pigra; per cui, nonostante si sia rivelata un grande aiuto, perché il suo utilizzo permette di risparmiare tempo velocizzando tutte le operazioni, l’AI può allo stesso tempo essere dannosa per l’intelletto umano, riducendo la creatività.
Negli ultimi anni sono andati a ruba i droni, sia per divertimento che per uso lavorativo. Un esempio può essere il cambiamento che Amazon ha pensato di attuare entro il 2024 per effettuare le consegne dei pacchi.
Amazon ha scelto l’Italia come primo paese in Europa per sperimentare le consegne con droni, programmate per iniziare nel 2024. L’obiettivo è consegnare prodotti entro 60 minuti dall’ordine, con una prospettiva di riduzione a 30 minuti o meno. L’Italia diventa così un banco di prova per sviluppare protocolli di sicurezza e normative per il futuro utilizzo dei droni nelle consegne. Il lavoro del corriere è molto diffuso poiché non troppo impegnativo, ma con i droni migliaia di persone perderanno il loro posto di lavoro per dare spazio all’intelligenza artificiale.
Il parlamento europeo, nell’aprile 2021, con la diffusione dell’AI ha deciso di fissare una normativa per regolarne l’uso corretto senza provocare danni.
La priorità del parlamento è di assicurarsi che i sistemi tecnologici usati in UE non possano provocare danni fisici e psicologici all’uomo. Infatti l’AI dovrebbe essere controllata da persone e non da sistemi di automazione per evitare danni.
I sistemi di intelligenza artificiale diventano pericolosi e inaccettabili quando mettono appunto in pericolo la salute e la vita privata dell’uomo, come ad esempio il criterio di identificazione in tempo reale. Altro rischio dell’AI è l’uso dei sistemi inserito nei prodotti di mercato, come per normalissimi giocattoli.
Nel 1942 Isaac Asimov ha definito le 3 leggi della robotica e dell’utilizzo corretto dei robot e delle macchine tecnologiche. Esse regolano il funzionamento del cervello dei robot:
1.Un robot non può recare danno agli esseri umani;
2.Un robot deve obbedire agli ordini impartiti dagli esseri umani, tranne nel caso che tali ordini contrastino con la Prima Legge;
3.Un robot deve salvaguardare la propria esistenza, purché ciò non contrasti con la Prima e la Seconda Legge.
Esse sono diventate un punto di riferimento importante della riflessione sull’AI e hanno ispirato discussioni sulle responsabilità nel campo di una tecnologia avanzata.
Nasce una questione morale sul confronto tra umani e AI che si può suddividere in diversi aspetti: alcuni temi includono la responsabilità umana nell’uso dell’AI, cioè il problema della trasparenza delle decisioni e della protezione dei dati personali. L’etica svolge infatti un ruolo importante nello sviluppo dell’AI, perchè bisogna garantire che i valori umani vengano rispettati.
Nel mondo dell’intelligenza artificiale si intravede tuttavia un’opportunità di espansione per la creatività umana e l’ampliamento della cultura. Ma la vera bellezza sta nel mondo in cui viviamo nella sua purezza e originalità.

Attuale ed interessante