Menu
Cerca
English

Scuola di Robotica

Scuola di Robotica

28/08/2018 - Articoli, Notizie

Roboetica: Iniziative ONU, Stop Killer Robots, ICRAC e altre

Roboetica: Iniziative ONU, Stop Killer Robots, ICRAC e altre
Tempo di lettura Tempo di lettura: 3 minuti

In tutto il mondo, si stanno intensificando la discussione e le iniziative sugli aspetti etici, legali e sociali della Intelligenza Artificiale e della robotica. Qui le azioni principali e alcune idee.

Presentiamo in questa news le recenti inziative in tema di Roboetica. La maggior parte sono dedicate a intervenire sul problema molto grave delle armi autonome, i killer robot. Questi, e il loro uso in teatri di guerra quali l'Iraq, lo Yemen, il Pakistan e l'Afganistan, hanno sollevato preoccupazione nell'opinione pubblica, grazie alle attività di molte NGO.

INIZIATIVE ONU

Nel 2018 (aprile e agosto) si è riunito a Ginevra il Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS) delle Nazioni Unite. Il Gruppo, costituito nel 2016 nell'ambito della Fifth Review Conference of the High Contracting Parties to the Convention on Certain Conventional Weapons (CCW),  è nato a seguito delle inziative di molte parti che hanno chiesto alle Nazioni Unite di intervenire sull'uso di sistemi d'arma robotici nei teatri di guerra. In particolare, enorme preoccupazione avevano sollevato le vittime civili dei droni in Iraq, Yemen e Pakistan.

Sito del Gruppo: https://www.unog.ch/80256EE600585943/(httpPages)/7C335E71DFCB29D1C1258243003E8724

Dopo la pubblicazione del Rappporto del Professor Professor Christof Heyns (2016) che chiedeva una moratoria sulle armi autonome, il dibattito alle Nazioni Unite si è spostato verso la Conferenza sulla Convention of Certain Conventional Weapons (CCW).

Dal 27 al 31 agosto 2018 più di 70 rappresentanti di nazioni presenti all'ONU si sono incontrati alle Nazioni Unite a Ginevra alla Convention on Conventional Weapons (CCW) per il sesto incontro sui  Lethal autonomous weapons systems. Il principale argomento di discussione - con una generale convergenza di giudizi - è stata la necessità che armi autonome siano sempre controllate da umani. E' stata decisa un'azione negoziale per arrivare alla definzione di una norma internazionale che ratifichi la proposta. La maggior parte delle nazioni presenti hanno proposto che nell'ambito del CCW sia redatta una legge vincolante a livello internazionale (protocollo o trattato). Per la prima volta, Austria, China, Colombia, and Djibouti hanno chiesto una moratoria sulle armi autonone, sebbene la Cina abbia deciso di limitare il babdo al solo uso, non allo sviluppo né alla produzione.

Francia, Israele, Russia, Regno Unito e Stati Uniti hanno esplicitamente rigettato la proposta di negoziare una legge o trattato sulle armi autonome. Il CCW opera sulla base del consenso, sicché ogni singola nazione può opporsi e potenzialmente bloccare l'inizio dei negoziati.

Il 24 maggio 2018 il Segretario Generale delle Nazioni Unite, António Guterres, aveva espresso sostegno all'iniziativa di elaborare misure per “accordi legalmente vincolanti”  per assicurare che "gli umani rimangano sempre in controllo dell'impiego della forza" delle armi autonome. La proposta espressa era contenuta  nell'agenda UN head’s 74-pp disarmament agenda (Ginevra, maggio 2018) che descrive come "robotici, imprenditori di tecnologie, soggetti umanitari, e molti governi abbiano lanciato un allarme sulle implicazioni poste dallo sviluppo di sistemi di armi letali autonome". (Vedi https://front.un-arm.org/documents/SG+disarmament+agenda_1.pdf)

COMMISSIONE EUROPEA

A giugno 2018 la Commissione Europea ha nominato un Comitato di Esperti su problemi etici, legali e sociali dell'IA (High-Level Expert Group on Artificial Intelligence). Sono 52 gli esperti che rappresentano l'accademia, la società civile e l'industria. Il Comitato elaborerà una serie di raccomandazioni e guideline etiche che dovranno coprire aspetti come correttezza e sicurezza, trasparenza, il futuro del mondo del lavoro, la democrazia e in generale l'impatto dell'IA sulla Carta dei Diritti Fondamentali tra cui il diritto alla privacy e alla protezione dei dati personali, la dignità, la protezione del consumatore, e non discriminazione.

https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence

 

ALTRE INIZIATIVE

CAMPAIGN TO STOP KILLER ROBOTS

L'associazione Campaign to Stop Killer Robots si è costituita grazie a diverso NGO nell'ottobre del 2012 a New York e lanciata a Londra nel 2013. Ha l'obiettivo di ottenere il bando dell'uso di armi autonome. Nell'estate del 2018 la Campaign to Stop Killer Robots ha dato vita a molte iniziative, tra cui ha contribuito a redigere la risoluzione del Parlamento Europeo (5 luglio 2018) adottata con votazione di 390 si e 110 no che chiede un urgente negoziato per "un bando internazionale sui stemi d'arma sul cui impiego non vi è controllo umano". La risoluzione chiede che il Consiglio Europeo agisca per tale obiettivo.   Le altre molte iniziative di Campaign to Stop Killer Robots si sono svolte tra giugno e luglio 2018 in Belgio, Finlandia, Italia, Norvegia, Svizzera e Regno Unito.  Vedi: https://www.stopkillerrobots.org/2018/07/parliaments-2/

ICRAC (https://www.icrac.net/)

L'ICRAC è un Organismo Non Governativo (NGO) formato da un comitato di esperti di tecnologie robotiche, intelligenza artificiale, roboetica, relazioni  e sicurezza internazionali, controllo degli armamenti, internazional Humanitarian Law (IHL), diritti umani.

L'11 aprile 2018 Now Sharkey, presidente e co-fondatore di ICRAC, ha  letto una dichiarazione interessante di fronte al Group of Governmental Experts on Lethal Autonomous Weapons Systems (LAWS) delle Nazioni Unite.che elabora il concetto, richiesto da molti, che la armi autonome abbiamo sempre un "human-in-the-loop", ovvero un umano al controllo. Skarkey nota che se le armi autonome avessero un controllo umano non sarebbero più autonome. L'osservazione non è senza significato importante: Sharkey sostiene che se parliamo di "controllo umano" sulle armi autonome (Human in-the-loop, on-the-loop, the broader loop, looping-the loop, human oversight) dobbiamo essere precisi su ciò che intendiamo, vale a dire, esaminare con attenzione come gli umani interagiscano con le macchine e comprendere i bias umano-macchina che possono accadere nella selezione di obiettivi definiti. "Riprendiamo le lezioni apprese - afferma Skarkey - da 30 anni di ricerche sul controllo umano sulle macchine e da più di 100 anni di studi di psicologia umana. Questo può aiutarci a progettare interfacce umano-macchine che ci permettano di controllare efficacemente armi in modo conforme alla legislazione internazionale e ai principi di umanità".

Da questo punto di vista, Sharkey ha delineato le condizioni specifiche e necessarie perché un umano possa effettivamente avere il controllo di questi sistemi d'arma, conformemente ai principi dell'International Humanitaria Law. Per il discorso completo: https://www.icrac.net/icrac-statement-on-the-human-control-of-weapons-systems-at-the-april-2018-ccw-gge/

Noel Sharkey alla UN conference on lethal autonomous weapons a Ginevra il 2 settembre 2018: https://www.facebook.com/dw.digital/videos/1962701013797249/

 

FUTURE OF LIFE INSTITUTE

In aprile 2018 molti imprenditori di area ICT e robotica, a livello internazionale, tra cui Tesla Elon Musk e i CEO di Deep Mind di Google hanno inviato una Lettera Aperta alla UN Convention on Certain Conventional Weapons per mettere in guardia sul fatto che armi autonome  “renderanno possibile conflitti armati combattuti a una scala molto più vasta di prima, e in tempi così rapidi che gli umani non riusciranno a comprendere”.  Il testo della lettera:

  • Lethal autonomous weapons threaten to become the third revolution in warfare. Once developed, they will permit armed conflict to be fought at a scale greater than ever, and at timescales faster than humans can comprehend. These can be weapons of terror, weapons that despots and terrorists use against innocent populations, and weapons hacked to behave in undesirable ways. We do not have long to act. Once this Pandora’s box is opened, it will be hard to close. We therefore implore the High Contracting Parties to find a way to protect us all from these dangers.

https://futureoflife.org/autonomous-weapons-open-letter-2017

 

 

tags:

Divulgazione, Roboetica, Scienza&Società