{"id":104939,"date":"2024-05-20T00:03:00","date_gmt":"2024-05-19T22:03:00","guid":{"rendered":"https:\/\/www.ocean4future.org\/savetheocean\/?p=104939"},"modified":"2024-05-23T14:25:56","modified_gmt":"2024-05-23T12:25:56","slug":"la-moralita-dei-droni-autonomi","status":"publish","type":"post","link":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939","title":{"rendered":"La moralit\u00e0 dei droni autonomi"},"content":{"rendered":"<span class=\"span-reading-time rt-reading-time\" style=\"display: block;\"><span class=\"rt-label rt-prefix\">tempo di lettura: <\/span> <span class=\"rt-time\"> 10<\/span> <span class=\"rt-label rt-postfix\">minuti<\/span><\/span><p><span style=\"color: #ffffff;\">.<\/span><\/p>\n<p><a class=\"maxbutton-8 maxbutton maxbutton-livello-2\" href=\"javascript:void(0);\"><span class='mb-text'>livello medio<\/span><\/a><br \/>\n<span style=\"color: #ffffff;\">.<\/span><br \/>\n<span style=\"color: #008000;\"><strong>ARGOMENTO: INTELLIGENZA ARTIFICIALE<\/strong><\/span><br \/>\n<span style=\"color: #008000;\"><strong>PERIODO: XXI SECOLO<\/strong><\/span><br \/>\n<span style=\"color: #008000;\"><strong>AREA: INNOVAZIONE<\/strong><\/span><br \/>\nParole chiave: robot autonomi, etica, capacit\u00e0 decisionale<br \/>\n<span style=\"color: #ffffff;\">.<\/span><\/p>\n<p align=\"justify\">Con l&#8217;evolversi della tecnologia i droni stanno diventando sempre pi\u00f9 autonomi per cui la prospettiva di un combattente robotico sta diventando una possibilit\u00e0 sempre pi\u00f9 reale. Sistemi robotizzati aerei e terrestri sono stati utilizzati durante le recenti guerre in Afghanistan e Iraq e recentemente in Ucraina e nel conflitto Israele-Palestinese. Sebbene la politica ufficiale affermi che questi droni mantengono un controllo umano, almeno per le decisioni pi\u00f9 letali, temo che il concetto operativo di impiego di questi mezzi potrebbe cambiare non appena ne sar\u00e0 dimostrata l\u2019affidabilit\u00e0 in azioni totalmente autonome da un punto di vista decisionale. <strong><span style=\"color: #008000;\">Prima di arrivare a questo punto, ci dovremmo domandare se l\u2019impiego di questi droni debba essere limitato da regole legate ad implicazioni morali ed etiche che dovrebbero essere caratteristiche di un essere umano.<\/span><\/strong><\/p>\n<p align=\"justify\">Va premesso che molte delle Convenzioni internazionali<span style=\"color: #008000;\"><strong><sup>1<\/sup><\/strong><\/span> per l\u2019uso degli armamenti sono state firmate prima della costruzione dell\u2019ENIAC, il primo computer, e non considerano l&#8217;impiego di mezzi autonomi. Di fatto l\u2019ambiente scientifico militare, da sempre attento a precorrere il tempo per mantenere la superiorit\u00e0 tecnologica, negli ultimi 60 anni si \u00e8 evoluto oltre le aspettative senza che nessun politico abbia mai sollevato una limitazione morale sul potenziale rischio di impiegare sistemi robotici in operazioni militari. Questo nonostante un loro potenziale pericolo fosse stato sollevato da libri e film di successo.<\/p>\n<p align=\"justify\"><span style=\"color: #008000;\"><strong>Qual \u00e8 il rischio reale?<\/strong><\/span><br \/>\nLa questione mi ricorda una strenua levata di scudi ad un convegno NATO in cui un rappresentante di un paese, dopo aver ascoltato il programma di sviluppo di futuri droni aerei da combattimento totalmente autonomi, sollev\u00f2 al tavolo la necessit\u00e0 di applicare nei software di programmazione la <strong><span style=\"color: #008000;\">prima legge della Robotica<sup>2<\/sup><\/span><\/strong>. La discussione fu solo accademica e non ebbe conclusioni. Le Leggi di Asimov, nate agli inizi degli anni quaranta, furono in realt\u00e0 esaminate in previsione dello sviluppo (ora prossimo) di robot autonomi per un uso bellico ma i timori che questi sistemi possano causare lesioni o la morte di esseri umani potrebbe diventare una realt\u00e0.<\/p>\n<p align=\"justify\"><div class=\"lyte-wrapper fourthree\" style=\"width:420px;max-width:100%;margin:5px;\"><div class=\"lyMe\" id=\"WYL_xtE9hpwrDg4\"><div id=\"lyte_xtE9hpwrDg4\" data-src=\"\/\/i.ytimg.com\/vi\/xtE9hpwrDg4\/hqdefault.jpg\" class=\"pL\"><div class=\"tC\"><div class=\"tT\"><\/div><\/div><div class=\"play\"><\/div><div class=\"ctrl\"><div class=\"Lctrl\"><\/div><div class=\"Rctrl\"><\/div><\/div><\/div><noscript><a href=\"https:\/\/youtu.be\/xtE9hpwrDg4\" rel=\"nofollow\"><img decoding=\"async\" src=\"https:\/\/i.ytimg.com\/vi\/xtE9hpwrDg4\/0.jpg\" alt=\"YouTube video thumbnail\" width=\"420\" height=\"295\" \/><br \/>Guarda questo video su YouTube<\/a><\/noscript><\/div><\/div><div class=\"lL\" style=\"max-width:100%;width:420px;margin:5px;\"><\/div><\/p>\n<p align=\"justify\">Ad esempio, lo sviluppo del sistema coreano di sorveglianza attiva delle linee di frontiera&nbsp; <strong><span style=\"color: #008000;\">Samsung SGR-1<\/span><\/strong> ha suscitato notevoli controversie e ci si domanda se sia etico lasciare ad una macchina la scelta autonoma di uccidere individui scoperti nella sua area di controllo solo sulla base di una sua valutazione personale. Fantascienza? Non dobbiamo arrivare ad immaginarci scenari stile <strong><span style=\"color: #008000;\">Terminator o Battlestar Galactica<\/span><\/strong>, per fortuna ancora lontani, ma oggigiorno esiste la possibilit\u00e0 che droni autonomi possano decidere di uccidere umani sulla base di ordini precedenti non considerando fattori come l\u2019etica e la morale.<\/p>\n<p align=\"justify\"><span style=\"color: #008000;\"><strong>La riduzione dell&#8217;incertezza nel processo decisionale<\/strong><\/span><br \/>\nPer comprendere il meccanismo che porta ad intraprendere decisioni a livello umano bisogna analizzare quell che vene definito tecnicamente <strong><span style=\"color: #008000;\">decision making<\/span><\/strong>, il processo decisionale. Il problema pi\u00f9 importante in qualsiasi ambito, anche umano, \u00e8 decidere bene con il minimo rischio di errore ottenendo la massima efficacia. Come vedremo in breve, la qualit\u00e0 della raccolta ed analisi delle informazioni di una situazione operativa migliora la comprensione dell&#8217;ambiente e favorisce la corretta scelta decisionale. In parole semplici, deriva in parte dalla qualit\u00e0 e prestanza dei sensori di sorveglianza esterna (visori, radar, sonar, etc.), e in parte dall&#8217;esperienza, intuizione e giudizio dell\u2019operatore umano. Questo processo \u00e8 molto complesso e nel meccanismo intervengono diversi fattori che di fatto \u201cfiltrano\u201d l\u2019informazione, rendendola molto soggettiva. Potremmo immaginare il processo come uno strano cannocchiale a doppio cono (<strong><span style=\"color: #008000;\">Miller et Shattuck<\/span><\/strong>, <strong><span style=\"color: #008000;\">US Navy Postgraduate School, Monterey<\/span><\/strong>) in cui il primo \u00e8 rivolto verso il mondo reale ed osserva, a seconda della sua larghezza, solo una parte dell\u2019informazione totale. Le lenti poste al suo interno sono fondamentali perch\u00e9 rappresentano i l<strong><span style=\"color: #008000;\">ivelli di filtraggio delle informazioni<\/span><\/strong>. Maggiore \u00e8 la prestanza della lente (sensore) migliore \u00e8 la qualit\u00e0 e quantit\u00e0 dell&#8217;informazione raccolta.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-10-183717.png\" alt=\"Questa immagine ha l'attributo alt vuoto; il nome del file \u00e8 Screenshot-2024-05-10-183717.png\" width=\"839\" height=\"606\"><\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">da<\/span> <span style=\"color: #008000;\">Lawrence G. Shattuck and Nita Lewis Miller, <em>Extending Naturalistic Decision Making to Complex Organizations: A Dynamic Model of Situated Cognition<\/em> 05_Shattuck_27_7_paged.pdf (nps.edu)<br \/>\n<\/span><\/strong><a href=\"https:\/\/faculty.nps.edu\/nlmiller\/docs\/05_Shattuck_27_7_paged.pdf\">05_Shattuck_27_7_paged.pdf (nps.edu)<\/a><\/p>\n<p align=\"justify\">Il cono, che potremmo immaginare come un collettore di dati, man mano che si avvicina verso l\u2019osservatore subisce una riduzione quantitativa dell\u2019informazione legata principalmente al filtraggio di dati potenzialmente errati (tecnicamente possiamo immaginarli come filtri passa alto o passa basso) che riduce la possibilit\u00e0 di errore di valutazione ma anche la sua capacit\u00e0 di identificare comportamenti anomali sospetti. A questo punto l&#8217;operatore riceve una mole di dati sul suo sistema di rappresentazione ed, inconsapevolmente, effettua un secondo filtraggio delle informazioni legato a fattori personali quali:<br \/>\n<span style=\"color: #008000;\"><strong>&#8211; l\u2019attenzione (stato fisico e motivazione dell\u2019operatore nel momento dell&#8217;analisi);<\/strong><\/span><br \/>\n<span style=\"color: #008000;\"><strong>&#8211; il livello di esperienza (maturato a seguito dell&#8217;addestramento ricevuto sia individualmente che nel lavoro di team);<\/strong><\/span><br \/>\n<span style=\"color: #008000;\"><strong>&#8211; l&#8217;intuizione (dote personale non misurabile relativa alla sua capacit\u00e0 di vedere oltre il visibile);<\/strong><\/span><br \/>\n<span style=\"color: #008000;\"><strong>&#8211; pregiudizi umani (legati al gender, alla religione, al credo sociale o politico, alla motivazione, etc.).<\/strong><\/span><\/p>\n<p align=\"justify\">In parole semplici, il sensore ci mostra solo una percentuale di informazioni legata alla sua accuratezza di analisi tecnologica; la mole di dati viene filtrata sia dalla macchina (a causa dei limiti dei sensori e dagli algoritmi di gestione dei dati), sia dall\u2019operatore che pu\u00f2 scartare o dare importanza ad alcuni dati ricevuti a seconda del momento. Alla fin fine, il decisore (colui che deve prendere la decisione) riceve una situazione filtrata spesso confrontata con quella proveniente da altri operatori, per cui il suo livello di incertezza decisionale aumenta ulteriormente. Questo limite umano farebbe quindi propendere per una gestione robotica, non affetta da limiti e pregiudizi ma &#8230; vengono ad inserirsi altri fattori di carattere etico e morale.&nbsp;<\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">Cosa fare per ridurre l&#8217;incertezza decisionale?<\/span><\/strong><\/p>\n<p align=\"justify\">La risposta pi\u00f9 facile potrebbe essere impiegare sistemi sempre pi\u00f9 potenti, in grado di analizzare grandi quantit\u00e0 di dati, qualitativamente e quantitativamente sempre pi\u00f9 performanti, rendendoli disponibili agli operatori con algoritmi di supporto decisionale sempre pi\u00f9 intelligenti. Tutto questo in tempi quanto pi\u00f9 ridotti in quanto le informazioni raccolte sono comunque deperibili e l\u2019avversario potrebbe intraprendere nuove azioni cambiando la situazione iniziale. Sebbene questo processo non sia dissimile in molti ambienti lavorativi, in ambito militare \u00e8 particolarmente sensibile in quanto la tempistica di reazione pu\u00f2 salvare vite umane. Tecnicamente si parla di <strong><span style=\"color: #008000;\">Comando Controllo Comunicazioni (C3)<\/span><\/strong>, per definire quel processo continuo e ciclico attraverso il quale un comandante prende decisioni ed esercita, attraverso i suoi mezzi di <span style=\"color: #000000;\">Comunicazione<\/span>, la sua autorit\u00e0 sui comandanti subordinati.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-10-191304.png\" alt=\"Questa immagine ha l'attributo alt vuoto; il nome del file \u00e8 Screenshot-2024-05-10-191304.png\"><\/p>\n<p align=\"justify\">Uno dei metodi decisionali pi\u00f9 noti \u00e8 il <strong><span style=\"color: #008000;\">Ciclo<\/span><\/strong> <strong><span style=\"color: #008000;\">OODA<\/span><\/strong><span style=\"color: #000000;\">, acronimo per descrivere uno schema di processo decisionale ovvero:<\/span><strong><span style=\"color: #008000;\">&nbsp;Osservare-Orientare-Decidere-Agire<\/span><\/strong>. Come abbiamo premesso, il primo passo verso la comprensione di un evento \u00e8 la raccolta e l\u2019elaborazione dei dati raccolti dai sensori, effettuata da architetture di sistemi (computer) che, attraverso l\u2019uso di programmi organizzano i dati, li filtrano (eliminando informazioni non coerenti), e generano grafici, disegnando o rappresentando le informazioni (<span style=\"color: #008000;\"><strong>Observe<\/strong><\/span>). A questo punto l\u2019operatore inizia ad orientarsi attraverso l&#8217;analisi, la correlazione dei dati, valutandoli in termini di <strong><span style=\"color: #008000;\">affidabilit\u00e0, pertinenza ed importanza<\/span><\/strong> (<strong><span style=\"color: #008000;\">Orient<\/span><\/strong>) e <strong><span style=\"color: #008000;\">trasforma la conoscenza in comprensione<\/span><\/strong>. Semplice a dirsi, ma sempre <strong><span style=\"color: #008000;\">molto soggettivo<\/span><\/strong> in quanto tutti gli operatori possiedono una<strong><span style=\"color: #008000;\"> loro<\/span> <\/strong>capacit\u00e0 basata sulle esperienze precedenti e l\u2019addestramento ma limitata dallo stato fisico del momento (stanchezza, tensione, risentimento,&#8230;), nonch\u00e9 pregiudizi personali (io sono meglio di lui\/lei, &#8230; non capisce, chi me lo fa fare &#8230;) e regole fissate dalle autorit\u00e0 superiori (un esempio pratico sono le consegne per gli operatori che sono redatte sulla base delle direttive superiori, come le regole di ingaggio \u2013 ROE \u2013 che sono a loro volta scritte e approvate a livello politico, spesso lontane dalla realt\u00e0 del momento). <span style=\"color: #008000;\"><strong>Questo comporta che la comprensione di un evento \u00e8 sempre diversa da operatore ad operatore perch\u00e9 basata su fattori tecnici e umani diversi (il cosiddetto <em>human factor<\/em>).<\/strong><\/span><\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">Ma non \u00e8 finita<\/span> <\/strong>\u2026 gli operatori devono quindi condividere le loro opinioni ovvero relazionarsi con i livelli decisori superiori. Questo ambito, secondo la <strong><span style=\"color: #008000;\">legge di Metcalfe<\/span> <sup><span style=\"color: #008000;\">3<\/span><\/sup><\/strong>, \u00e8 ancora pi\u00f9 complesso a causa dell&#8217;aumento del numero di connessioni che si vengono a generare. Inoltre, vanno considerate le differenze di analisi degli operatori sono affette da una diversa origine; il caso classico \u00e8 quando provengono da ambienti lavorativi diversi (militare, civile) ma anche di paesi e culture diversi). Un esempio classico \u00e8 un operatore, formato in un ambiente occidentale, che devo collaborare con un collega asiatico: Nel primo caso il suo processo di analisi \u00e8 <strong><span style=\"color: #008000;\">euclideo<\/span><\/strong>, ovvero problema, possibili soluzioni, analisi e decisione, nel secondo il problema va visto nel suo insieme (visione olistica).<\/p>\n<p align=\"justify\">In sintesi, potremmo dire che <strong><span style=\"color: #008000;\">gli errori crescono proporzionalmente man mano che la complessit\u00e0 relazionale aumenta<\/span><\/strong>. Si apre quindi il secondo cono, opposto all\u2019altro, che si allarga man mano che si aggiungono valutazioni da diverse fonti. Questo spiega il fatto che in ambienti dinamici vengono spesso applicate risposte pre-pianificate per ridurre i tempi e massimizzare gli sforzi (riducendo in teoria gli errori).<\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">Umani vs Computer<\/span><\/strong><\/p>\n<p align=\"justify\">Di fatto, in una societ\u00e0 tecnologica sempre pi\u00f9 veloce, stanno nascendo delle forbici generazionali, dove il <span style=\"color: #008000;\"><strong>potere decisionale<\/strong><\/span> \u00e8 spesso assegnato a personale che proviene da<strong><span style=\"color: #008000;\"> esperienze maturate in un\u2019epoca analogica<\/span> <\/strong>che deve per\u00f2 confrontarsi e guidare staff di persone nate in <strong><span style=\"color: #008000;\">un\u2019epoca digitale<\/span><\/strong> dove il flusso delle informazioni \u00e8 multidimensionale e richiede flessibilit\u00e0 e comprensione \u201cmulticulturale\u201d. La tentazione di affidare ai processi robotici la gestione del nostro futuro potrebbe essere quindi una prospettiva allettante. Macchine intelligenti, che possano operare su big data seguendo regole assegnate senza debolezze umane. <strong><span style=\"color: #008000;\">Ma siamo sicuri che la tecnologia possa essere la panacea di tutti i limiti umani o se sia invece necessario continuare a mantenere un controllo umano sulle macchine? Chi sarebbe responsabile degli effetti collaterali?<\/span><\/strong><br \/>\nL&#8217;aumento dell&#8217;autonomia decisionale \u00e8 una progressione naturale della tecnologia e, di fatto, non ci sarebbe nulla di intrinsecamente amorale nel fatto che un computer potesse prendere decisioni anche per l\u2019Uomo &#8230; se non fosse che, a seguito di alcune decisioni potrebbero seguire azioni letali. Le leggi che regolano i conflitti (ad esempio il <strong><span style=\"color: #008000;\">San Remo Manual<\/span><\/strong>) impongono regole ben precise che limitano quali siano gli unici bersagli validi ovvero quelli che possano potenzialmente infliggere dei danni. Ad oggi una decisione di un\u2019azione letale \u00e8 di massima sempre legata alla decisione dell\u2019Uomo ed implica un\u2019analisi complessa che tiene conto del \u201c<strong><span style=\"color: #008000;\">consequence management<\/span><\/strong>\u201d. Alcuni sostenitori delle costruzioni di macchine autonome da combattimento ritengono che ci sarebbero vantaggi strategici con una riduzione del rischio per gli esseri umani, ma di fatto <strong><span style=\"color: #008000;\">l&#8217;efficacia di un&#8217;arma non \u00e8 sempre una giustificazione per il suo utilizzo.<\/span><\/strong><\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">A questo punto torniamo alla domanda principale ovvero se sia lecito lasciare la decisione di uccidere un essere umano ad una macchina?<\/span><br \/>\n<\/strong>Secondo <strong><span style=\"color: #008000;\">Sidney Axinn<\/span><\/strong>, professore presso il Philosophy Department all\u2019University of South Florida e co-autore del saggio <strong><span style=\"color: #008000;\"><a style=\"color: #008000;\" href=\"https:\/\/www.academia.edu\/10088893\/The_Morality_of_Autonomous_Robots?email_work_card=thumbnail\">La Moralit\u00e0 dei robot autonomi<\/a><\/span><\/strong>, la decisione di un\u2019azione letale deve restare umana e non \u00e8 etico permettere ad una macchina di fare una scelta cos\u00ec critica. Secondo <strong><span style=\"color: #008000;\">Arkin (2010)<\/span><\/strong> i robot potrebbero fare un lavoro migliore degli esseri umani nel prendere decisioni mirate perch\u00e9 non hanno alcun motivo di vendetta \u2026 ma \u00e8 anche vero che, nonostante la loro abilit\u00e0, non si possono rendere conto della gravit\u00e0 di uccidere la persona &#8220;sbagliata&#8221;.<\/p>\n<p><img decoding=\"async\" src=\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152051.png\" alt=\"Questa immagine ha l'attributo alt vuoto; il nome del file \u00e8 Screenshot-2024-05-14-152051.png\" width=\"841\" height=\"612\"><\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">immagine AI @ Lallo Mari<\/span><\/strong><\/p>\n<p align=\"justify\">In sintesi, sebbene il processo decisionale sia supportato da macchine sempre pi\u00f9 performanti, <strong><span style=\"color: #008000;\">la decisione finale dovrebbe essere sempre lasciata all\u2019Uomo che, con tutte le sue debolezze, ha la possibilit\u00e0 di discernere tra il bene e il male, almeno fino a quando manterr\u00e0 la sua umanit\u00e0 (cosa che non \u00e8 sempre scontata).<\/span><\/strong> L\u2019impiego di droni militari autonomi dovrebbe essere quindi strettamente regolamentato come quello di altre armi come mine, armi biologiche e chimiche, per evitare che il \u201cservo\u201d si rivolga contro il &#8220;padrone&#8221;, non per cattiveria (una macchina non ha sentimenti) ma per la nostra imperfezione. In un\u2019epoca in cui l\u2019evoluzione tecnica offre strumenti mirabolanti dovremmo imparare ad usarli per garantire un futuro alla nostra specie \u2026 ed evitare che macchine sempre pi\u00f9 intelligenti possano comprendere le nostre debolezze, che ci rendono umani, e distruggerci. D&#8217;altronde, una delle tante piccole verit\u00e0 delle famose <strong><span style=\"color: #008000;\">leggi di Murphy<\/span> <\/strong>afferma che &#8220;<b><span style=\"color: #008000;\"><em>Undetectable errors are infinite in variety, in contrast to detectable errors, which by definition are limited<\/em><\/span>&#8220;.<\/b><\/p>\n<p><strong><span style=\"color: #008000;\">Andrea Mucedola<br \/>\n<span style=\"color: #ffffff;\">.<\/span><\/span><\/strong><\/p>\n<p><span style=\"color: #008000;\"><strong>immagini in anteprima AI &#8211; @Lallo Mari<br \/>\n<span style=\"color: #ffffff;\">.<\/span><\/strong><\/span><\/p>\n<p><span style=\"color: #008000;\"><strong>Note<\/strong><\/span><\/p>\n<p align=\"justify\">1. Ricordo tra le tante convenzioni:<\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">&#8211; La Convenzione dell&#8217;Aia relativa alle leggi e alle consuetudini della guerra terrestre e relativo allegato, Paesi Bassi, 18 ottobre 1907<\/span><\/strong><\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">&#8211; Le Convenzioni di Ginevra, Svizzera, 12 agosto 1949.<\/span><\/strong><\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">&#8211; La Convenzione su alcune armi convenzionali (CCW), 10 aprile 1981<\/span><\/strong><\/p>\n<p align=\"justify\"><strong><span style=\"color: #008000;\">&#8211; Il San Remo Manual on International Law Applicable to Armed Conflicts at Sea, 31 dicembre 1995, San Remo, Italia<br \/>\n<\/span><\/strong><br \/>\n<strong>&#8211; <span style=\"color: #008000;\">La Convenzione sulla proibizione dell&#8217;uso, stoccaggio, produzione e trasferimento di Mine personali e sulla loro distruzione di Ottawa, Canada, 3 dicembre 1997<\/span><\/strong><\/p>\n<p align=\"justify\">2. Prima legge di Isaac Asimov, \u201c<span style=\"color: #008000;\"><strong><em>A robot may not injure a human being or, through inaction, allow a human being to come to harm<\/em><\/strong><\/span>\u201d ovvero \u201c<strong><em><span style=\"color: #008000;\">un robot pu\u00f2 non ferire un essere umano, o attraverso l&#8217;inazione, permettere a un essere umano di farsi del male<\/span><\/em><\/strong>\u201d.<\/p>\n<p align=\"justify\">3. La <strong><span style=\"color: #008000;\">legge di Metcalfe<\/span><\/strong> afferma che la complessit\u00e0 di una rete di telecomunicazioni \u00e8 proporzionale al quadrato del numero di utenti collegati meno il numero stesso. <img decoding=\"async\" class=\"alignleft\" src=\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/330px-Metcalfe-Network-Effect.svg.png\" alt=\"Questa immagine ha l'attributo alt vuoto; il nome del file \u00e8 330px-Metcalfe-Network-Effect.svg.png\" width=\"122\" height=\"280\">In pratica con l\u2019aumento dei nodi aumenta la complessit\u00e0. La legge prende il nome da <strong><span style=\"color: #008000;\">Robert Metcalfe<\/span><\/strong> e fu proposta per la prima volta nel 1980, anche se non in termini di utenti, ma piuttosto di &#8220;dispositivi di comunicazione compatibili&#8221;. Nella figura (da Wikipedia) vediamo che due telefoni possono effettuare soltanto una connessione tra loro, cinque telefoni possono effettuarne in totale venti diverse, dodici telefoni ne possono effettuare 132, ma&nbsp; 1.000 apparecchi collegati fra di loro arrivano a 999.000. Quindi, aumentando il numero dei nodi (telefoni), la complessit\u00e0 aumenta secondo la legge n<sup>2<\/sup>-n dove n \u00e8 il numero di nodi (apparecchi).<\/p>\n<p align=\"justify\">4. Nel decision making la differente visione del mondo Occidentale e Orientale \u00e8 tutt&#8217;altro che un&#8217;interpretazione culturale, essendo basata su due concetti decisionali diversi: il mondo occidentale pensa in maniera analitica (problema, analisi, possibili soluzioni, scelta finale, secondo una logica decisionale lineare), quello orientale osserva ogni aspetto della vita (feng shui) in maniera circolare, ovvero l&#8217;analisi su un problema \u00e8 fatta da diverse angolazioni per addivenire ad una possibile soluzione. Questo comporta che due individui di formazione diversa chiamati a decidere su un problema possono avere tempi e scelte diverse. Il problema \u00e8 sensibile quando queste persone lavorano nello stesso staff. Un riferimento interessante da leggere sull&#8217;argomento \u00e8 &#8220;<strong><span style=\"color: #008000;\">The geography of thought<\/span><\/strong>&#8221; di Richard E. Nisbett.<\/p>\n<p><span style=\"color: #ffffff;\">.<\/span><\/p>\n<p><span style=\"color: #008000;\"><strong>Riferimenti<\/strong><\/span><br \/>\nJohnson, Aaron M., and Sidney Axinn. \u201cThe Morality of autonomous robots\u201d, Journal of Military Ethics 12.2 (2013): 129\u2013141. Web. <a href=\"https:\/\/www.academia.edu\/10088893\/The_Morality_of_Autonomous_Robots\">https:\/\/www.academia.edu\/10088893\/The_Morality_of_Autonomous_Robots<\/a><br \/>\nArkin, R. C. \u201cThe Case for Ethical Autonomy in Unmanned Systems,\u201d Journal of Military Ethics, Vol. 9, Issue 4, pp. 332-341, 2010<br \/>\nLawrence G. Shattuck and Nita Lewis Miller. Extending Naturalistic Decision Making to Complex Organizations: A Dynamic Model of Situated Cognition 05_Shattuck_27_7_paged.pdf (nps.edu) <a href=\"https:\/\/faculty.nps.edu\/nlmiller\/docs\/05_Shattuck_27_7_paged.pdf\">https:\/\/faculty.nps.edu\/nlmiller\/docs\/05_Shattuck_27_7_paged.pdf<\/a>, 2006<br \/>\nRichard E. Nisbett &#8220;The geography of thought, how Westerners think differently and why&#8221; , Nicholas Brealey Publishing, London, 2003&nbsp;<br \/>\nBandioli Marco, L\u2019intelligenza artificiale per i campi di battaglia e per la sicurezza, Difesa online, 201<br \/>\n<span style=\"color: #ffffff;\">.<\/span><br \/>\n[wpedon id=17555]<\/p>\n<p align=\"justify\">Ti \u00e8 piaciuto questo articolo? Pensa se puoi fare una piccola donazione per sostenere il nostro progetto. Sostieni OCEAN4FUTURE, il portale del Mare e della Marittimit\u00e0. La donazione pu\u00f2 essere singola o puoi decidere di renderla automatica ogni mese. Per donare in sicurezza, Clicca sul link PayPal oppure scrivici alla mail infoocean4future@gmail.com<\/p>\n<p><span style=\"color: #ffffff;\">.<\/span><br \/>\n<a class=\"maxbutton-3 maxbutton maxbutton-pagina-principale\" target=\"_blank\" title=\"tooltip\" rel=\"nofollow noopener\" href=\"http:\/\/www.ocean4future.org\"><span class='mb-text'>PAGINA PRINCIPALE - HOME PAGE<\/span><\/a><\/p>\n<p>&nbsp;<\/p>\n<p><span style=\"color: #ffffff;\">.<\/span><\/p>\n<p align=\"justify\">Alcune delle foto presenti in questo blog possono essere state prese dal web, citandone ove possibile gli autori e\/o le fonti. Se qualcuno desiderasse specificarne l\u2019autore o rimuoverle, pu\u00f2 scrivere a infoocean4future@gmail.com e provvederemo immediatamente alla correzione dell\u2019articolo<br \/>\n<span style=\"color: #ffffff;\">.<\/span><br \/>\n<span style=\"color: #ffffff;\">.<\/span><br \/>\n<span style=\"color: #ffffff;\">.<\/span><br \/>\n<span style=\"color: #ffffff;\">.<\/span><\/p>\n","protected":false},"excerpt":{"rendered":"<p><span class=\"span-reading-time rt-reading-time\" style=\"display: block;\"><span class=\"rt-label rt-prefix\">tempo di lettura: <\/span> <span class=\"rt-time\"> 10<\/span> <span class=\"rt-label rt-postfix\">minuti<\/span><\/span>. . ARGOMENTO: INTELLIGENZA ARTIFICIALE PERIODO: XXI SECOLO AREA: INNOVAZIONE Parole chiave: robot autonomi, etica, capacit\u00e0 decisionale . Con l&#8217;evolversi della tecnologia i droni stanno diventando sempre pi\u00f9 autonomi per cui la prospettiva di un combattente robotico sta diventando una possibilit\u00e0 sempre pi\u00f9 reale. Sistemi robotizzati aerei e terrestri sono stati utilizzati durante le recenti [&hellip;]<\/p>\n","protected":false},"author":2380,"featured_media":105098,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"_monsterinsights_skip_tracking":false,"_monsterinsights_sitenote_active":false,"_monsterinsights_sitenote_note":"","_monsterinsights_sitenote_category":0,"footnotes":""},"categories":[2422],"tags":[],"class_list":["post-104939","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-sviluppi-tecnologici"],"acf":[],"yoast_head":"<!-- This site is optimized with the Yoast SEO plugin v27.2 - https:\/\/yoast.com\/product\/yoast-seo-wordpress\/ -->\n<title>La moralit\u00e0 dei droni autonomi &#8226; OCEAN4FUTURE autore<\/title>\n<meta name=\"robots\" content=\"index, follow, max-snippet:-1, max-image-preview:large, max-video-preview:-1\" \/>\n<link rel=\"canonical\" href=\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939\" \/>\n<meta property=\"og:locale\" content=\"it_IT\" \/>\n<meta property=\"og:type\" content=\"article\" \/>\n<meta property=\"og:title\" content=\"La moralit\u00e0 dei droni autonomi &#8226; OCEAN4FUTURE autore\" \/>\n<meta property=\"og:description\" content=\"tempo di lettura:  10 minuti. . ARGOMENTO: INTELLIGENZA ARTIFICIALE PERIODO: XXI SECOLO AREA: INNOVAZIONE Parole chiave: robot autonomi, etica, capacit\u00e0 decisionale . Con l&#8217;evolversi della tecnologia i droni stanno diventando sempre pi\u00f9 autonomi per cui la prospettiva di un combattente robotico sta diventando una possibilit\u00e0 sempre pi\u00f9 reale. Sistemi robotizzati aerei e terrestri sono stati utilizzati durante le recenti [&hellip;]\" \/>\n<meta property=\"og:url\" content=\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939\" \/>\n<meta property=\"og:site_name\" content=\"OCEAN4FUTURE\" \/>\n<meta property=\"article:published_time\" content=\"2024-05-19T22:03:00+00:00\" \/>\n<meta property=\"article:modified_time\" content=\"2024-05-23T12:25:56+00:00\" \/>\n<meta property=\"og:image\" content=\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png\" \/>\n\t<meta property=\"og:image:width\" content=\"595\" \/>\n\t<meta property=\"og:image:height\" content=\"455\" \/>\n\t<meta property=\"og:image:type\" content=\"image\/png\" \/>\n<meta name=\"author\" content=\"Andrea Mucedola\" \/>\n<meta name=\"twitter:card\" content=\"summary_large_image\" \/>\n<meta name=\"twitter:creator\" content=\"@ocean4future\" \/>\n<meta name=\"twitter:site\" content=\"@ocean4future\" \/>\n<meta name=\"twitter:label1\" content=\"Scritto da\" \/>\n\t<meta name=\"twitter:data1\" content=\"Andrea Mucedola\" \/>\n\t<meta name=\"twitter:label2\" content=\"Tempo di lettura stimato\" \/>\n\t<meta name=\"twitter:data2\" content=\"15 minuti\" \/>\n<script type=\"application\/ld+json\" class=\"yoast-schema-graph\">{\"@context\":\"https:\/\/schema.org\",\"@graph\":[{\"@type\":\"Article\",\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#article\",\"isPartOf\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939\"},\"author\":{\"name\":\"Andrea Mucedola\",\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/252d25dcc5c002abcde7b2d4baa78f13\"},\"headline\":\"La moralit\u00e0 dei droni autonomi\",\"datePublished\":\"2024-05-19T22:03:00+00:00\",\"dateModified\":\"2024-05-23T12:25:56+00:00\",\"mainEntityOfPage\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939\"},\"wordCount\":2648,\"commentCount\":0,\"publisher\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/4e1c26437054353074d7bb2efa77162c\"},\"image\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png\",\"articleSection\":[\"sviluppi tecnologici\"],\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"CommentAction\",\"name\":\"Comment\",\"target\":[\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#respond\"]}]},{\"@type\":\"WebPage\",\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939\",\"url\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939\",\"name\":\"La moralit\u00e0 dei droni autonomi &#8226; OCEAN4FUTURE autore\",\"isPartOf\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/#website\"},\"primaryImageOfPage\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#primaryimage\"},\"image\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#primaryimage\"},\"thumbnailUrl\":\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png\",\"datePublished\":\"2024-05-19T22:03:00+00:00\",\"dateModified\":\"2024-05-23T12:25:56+00:00\",\"breadcrumb\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#breadcrumb\"},\"inLanguage\":\"it-IT\",\"potentialAction\":[{\"@type\":\"ReadAction\",\"target\":[\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939\"]}]},{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#primaryimage\",\"url\":\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png\",\"contentUrl\":\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png\",\"width\":595,\"height\":455},{\"@type\":\"BreadcrumbList\",\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#breadcrumb\",\"itemListElement\":[{\"@type\":\"ListItem\",\"position\":1,\"name\":\"Home\",\"item\":\"https:\/\/www.ocean4future.org\/savetheocean\"},{\"@type\":\"ListItem\",\"position\":2,\"name\":\"La moralit\u00e0 dei droni autonomi\"}]},{\"@type\":\"WebSite\",\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/#website\",\"url\":\"https:\/\/www.ocean4future.org\/savetheocean\/\",\"name\":\"Ocean 4 Future\",\"description\":\"Per una nuova cultura del mare e della marittimit\u00e0\",\"publisher\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/4e1c26437054353074d7bb2efa77162c\"},\"potentialAction\":[{\"@type\":\"SearchAction\",\"target\":{\"@type\":\"EntryPoint\",\"urlTemplate\":\"https:\/\/www.ocean4future.org\/savetheocean\/?s={search_term_string}\"},\"query-input\":{\"@type\":\"PropertyValueSpecification\",\"valueRequired\":true,\"valueName\":\"search_term_string\"}}],\"inLanguage\":\"it-IT\"},{\"@type\":[\"Person\",\"Organization\"],\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/4e1c26437054353074d7bb2efa77162c\",\"name\":\"oceandiver\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2023\/04\/logo-ocean3.jpg\",\"url\":\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2023\/04\/logo-ocean3.jpg\",\"contentUrl\":\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2023\/04\/logo-ocean3.jpg\",\"width\":472,\"height\":301,\"caption\":\"oceandiver\"},\"logo\":{\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2023\/04\/logo-ocean3.jpg\"}},{\"@type\":\"Person\",\"@id\":\"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/252d25dcc5c002abcde7b2d4baa78f13\",\"name\":\"Andrea Mucedola\",\"image\":{\"@type\":\"ImageObject\",\"inLanguage\":\"it-IT\",\"@id\":\"https:\/\/secure.gravatar.com\/avatar\/befc97e7f9e17a6b60a3969a83be976bdb6f8fc3d0b55cb27b11ae85db4b6240?s=96&d=mm&r=g\",\"url\":\"https:\/\/secure.gravatar.com\/avatar\/befc97e7f9e17a6b60a3969a83be976bdb6f8fc3d0b55cb27b11ae85db4b6240?s=96&d=mm&r=g\",\"contentUrl\":\"https:\/\/secure.gravatar.com\/avatar\/befc97e7f9e17a6b60a3969a83be976bdb6f8fc3d0b55cb27b11ae85db4b6240?s=96&d=mm&r=g\",\"caption\":\"Andrea Mucedola\"},\"description\":\"ammiraglio della Marina Militare Italiana (riserva), \u00e8 laureato in Scienze Marittime della Difesa presso l\u2019Universit\u00e0 di Pisa ed in Scienze Politiche cum laude all\u2019Universit\u00e0 di Trieste. Analista di Maritime Security, collabora con numerosi Centri di studi e analisi geopolitici italiani ed internazionali. Ricercatore subacqueo scientifico dal 1993, nel 2019, ha ricevuto il Tridente d'oro dell'Accademia delle Scienze e Tecniche Subacquee per la divulgazione della cultura del mare. Fa parte del Comitato scientifico della Fondazione Atlantide e della Scuola internazionale Subacquei scientifici (ISSD - AIOSS).\",\"sameAs\":[\"http:\/\/www.ocean4future.org\"],\"url\":\"https:\/\/www.ocean4future.org\/savetheocean\/archives\/author\/andrea-mucedola\"}]}<\/script>\n<!-- \/ Yoast SEO plugin. -->","yoast_head_json":{"title":"La moralit\u00e0 dei droni autonomi &#8226; OCEAN4FUTURE autore","robots":{"index":"index","follow":"follow","max-snippet":"max-snippet:-1","max-image-preview":"max-image-preview:large","max-video-preview":"max-video-preview:-1"},"canonical":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939","og_locale":"it_IT","og_type":"article","og_title":"La moralit\u00e0 dei droni autonomi &#8226; OCEAN4FUTURE autore","og_description":"tempo di lettura:  10 minuti. . ARGOMENTO: INTELLIGENZA ARTIFICIALE PERIODO: XXI SECOLO AREA: INNOVAZIONE Parole chiave: robot autonomi, etica, capacit\u00e0 decisionale . Con l&#8217;evolversi della tecnologia i droni stanno diventando sempre pi\u00f9 autonomi per cui la prospettiva di un combattente robotico sta diventando una possibilit\u00e0 sempre pi\u00f9 reale. Sistemi robotizzati aerei e terrestri sono stati utilizzati durante le recenti [&hellip;]","og_url":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939","og_site_name":"OCEAN4FUTURE","article_published_time":"2024-05-19T22:03:00+00:00","article_modified_time":"2024-05-23T12:25:56+00:00","og_image":[{"width":595,"height":455,"url":"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png","type":"image\/png"}],"author":"Andrea Mucedola","twitter_card":"summary_large_image","twitter_creator":"@ocean4future","twitter_site":"@ocean4future","twitter_misc":{"Scritto da":"Andrea Mucedola","Tempo di lettura stimato":"15 minuti"},"schema":{"@context":"https:\/\/schema.org","@graph":[{"@type":"Article","@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#article","isPartOf":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939"},"author":{"name":"Andrea Mucedola","@id":"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/252d25dcc5c002abcde7b2d4baa78f13"},"headline":"La moralit\u00e0 dei droni autonomi","datePublished":"2024-05-19T22:03:00+00:00","dateModified":"2024-05-23T12:25:56+00:00","mainEntityOfPage":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939"},"wordCount":2648,"commentCount":0,"publisher":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/4e1c26437054353074d7bb2efa77162c"},"image":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#primaryimage"},"thumbnailUrl":"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png","articleSection":["sviluppi tecnologici"],"inLanguage":"it-IT","potentialAction":[{"@type":"CommentAction","name":"Comment","target":["https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#respond"]}]},{"@type":"WebPage","@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939","url":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939","name":"La moralit\u00e0 dei droni autonomi &#8226; OCEAN4FUTURE autore","isPartOf":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/#website"},"primaryImageOfPage":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#primaryimage"},"image":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#primaryimage"},"thumbnailUrl":"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png","datePublished":"2024-05-19T22:03:00+00:00","dateModified":"2024-05-23T12:25:56+00:00","breadcrumb":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#breadcrumb"},"inLanguage":"it-IT","potentialAction":[{"@type":"ReadAction","target":["https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939"]}]},{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#primaryimage","url":"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png","contentUrl":"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2024\/05\/Screenshot-2024-05-14-152147.png","width":595,"height":455},{"@type":"BreadcrumbList","@id":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/104939#breadcrumb","itemListElement":[{"@type":"ListItem","position":1,"name":"Home","item":"https:\/\/www.ocean4future.org\/savetheocean"},{"@type":"ListItem","position":2,"name":"La moralit\u00e0 dei droni autonomi"}]},{"@type":"WebSite","@id":"https:\/\/www.ocean4future.org\/savetheocean\/#website","url":"https:\/\/www.ocean4future.org\/savetheocean\/","name":"Ocean 4 Future","description":"Per una nuova cultura del mare e della marittimit\u00e0","publisher":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/4e1c26437054353074d7bb2efa77162c"},"potentialAction":[{"@type":"SearchAction","target":{"@type":"EntryPoint","urlTemplate":"https:\/\/www.ocean4future.org\/savetheocean\/?s={search_term_string}"},"query-input":{"@type":"PropertyValueSpecification","valueRequired":true,"valueName":"search_term_string"}}],"inLanguage":"it-IT"},{"@type":["Person","Organization"],"@id":"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/4e1c26437054353074d7bb2efa77162c","name":"oceandiver","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2023\/04\/logo-ocean3.jpg","url":"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2023\/04\/logo-ocean3.jpg","contentUrl":"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2023\/04\/logo-ocean3.jpg","width":472,"height":301,"caption":"oceandiver"},"logo":{"@id":"https:\/\/www.ocean4future.org\/savetheocean\/wp-content\/uploads\/2023\/04\/logo-ocean3.jpg"}},{"@type":"Person","@id":"https:\/\/www.ocean4future.org\/savetheocean\/#\/schema\/person\/252d25dcc5c002abcde7b2d4baa78f13","name":"Andrea Mucedola","image":{"@type":"ImageObject","inLanguage":"it-IT","@id":"https:\/\/secure.gravatar.com\/avatar\/befc97e7f9e17a6b60a3969a83be976bdb6f8fc3d0b55cb27b11ae85db4b6240?s=96&d=mm&r=g","url":"https:\/\/secure.gravatar.com\/avatar\/befc97e7f9e17a6b60a3969a83be976bdb6f8fc3d0b55cb27b11ae85db4b6240?s=96&d=mm&r=g","contentUrl":"https:\/\/secure.gravatar.com\/avatar\/befc97e7f9e17a6b60a3969a83be976bdb6f8fc3d0b55cb27b11ae85db4b6240?s=96&d=mm&r=g","caption":"Andrea Mucedola"},"description":"ammiraglio della Marina Militare Italiana (riserva), \u00e8 laureato in Scienze Marittime della Difesa presso l\u2019Universit\u00e0 di Pisa ed in Scienze Politiche cum laude all\u2019Universit\u00e0 di Trieste. Analista di Maritime Security, collabora con numerosi Centri di studi e analisi geopolitici italiani ed internazionali. Ricercatore subacqueo scientifico dal 1993, nel 2019, ha ricevuto il Tridente d'oro dell'Accademia delle Scienze e Tecniche Subacquee per la divulgazione della cultura del mare. Fa parte del Comitato scientifico della Fondazione Atlantide e della Scuola internazionale Subacquei scientifici (ISSD - AIOSS).","sameAs":["http:\/\/www.ocean4future.org"],"url":"https:\/\/www.ocean4future.org\/savetheocean\/archives\/author\/andrea-mucedola"}]}},"_links":{"self":[{"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/posts\/104939","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/users\/2380"}],"replies":[{"embeddable":true,"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/comments?post=104939"}],"version-history":[{"count":0,"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/posts\/104939\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/media\/105098"}],"wp:attachment":[{"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/media?parent=104939"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/categories?post=104939"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.ocean4future.org\/savetheocean\/wp-json\/wp\/v2\/tags?post=104939"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}