Els experts es van reunir a Ginebra, però no es va poder arribar a cap acord: els Estats Units i Rússia van bloquejar tota feina. Potser aquest és l’únic moment en què els hegemons funcionen tan harmoniosament.
Les reunions d’experts en el format de la Convenció sobre les armes inhumanes van acabar a Ginebra per decidir el destí dels anomenats robots de combat: armes autònomes que utilitzen la intel·ligència artificial per derrotar els objectius. Tot i això, no es va poder arribar a cap acord. Els Estats Units, Rússia, Corea del Sud, Israel i Austràlia es trobaven entre les nacions minoritàries que han aconseguit bloquejar el sentiment cap a la prohibició completa dels robots assassins.
Així, tot i que encara no hi ha cap arma autònoma que funcioni al món, la tecnologia segueix sent, per dir-ho així, humana: es pot desenvolupar i investigar. Curiosament, els Estats Units i Rússia, segons el Stockholm Peace Research Institute (SIPRI), encapçalen la llista dels majors exportadors d’armes. Corea del Sud, Israel i Austràlia tampoc es queden enrere en aquest rànquing, ja que es troben entre els 20 millors jugadors del mercat.
I tot i que la Xina (el cinquè exportador d’armes al món, membre permanent del Consell de Seguretat de l’ONU defensa la prohibició dels robots de combat, no va aconseguir ajustar la balança en la seva direcció durant les reunions. Avui, 26 països donen suport obertament a prohibició de l’ús de la intel·ligència artificial a la guerra. Altres defugen d’una posició clara) França i Alemanya (tercer i quart exportadors d’armes) ofereixen signar un document que consolidi la primacia de l’home sobre la intel·ligència artificial, però és més probable que al costat dels que volen desenvolupar vehicles de combat autònoms.
"Sens dubte, és decebedor que un petit grup de gegants militars pugui frenar la voluntat de la majoria", va comentar Mary Verhem, coordinadora de la Campanya per aturar els robots assassins, sobre el resultat de les reunions de Ginebra.
De fet, la situació sembla una conspiració de magnats del monopoli armat, atès que els Estats Units i Rússia no solen arribar a cap mena de compromís en qüestions importants. Prenguem la de Síria: Washington i Moscou es van bloquejar mútuament les resolucions després d’utilitzar armes químiques a Síria aquesta primavera. Per cert, els gasos asfixiants i altres substàncies tòxiques amb finalitats militars ja estaven prohibides per la Convenció sobre les armes inhumanes.
La propera reunió sobre el destí dels robots assassins tindrà lloc a Ginebra al novembre.
Per què volen prohibir les armes autònomes
Els defensors de la prohibició de la guerra dels robots insisteixen que el camp de batalla no és un lloc per a la intel·ligència artificial. Segons la seva opinió, aquestes tecnologies representen una amenaça enorme. Almenys, avui en dia no està clar com distingirà la màquina entre combatents (aquells que participen directament en hostilitats) dels no combatents (personal del servei de l’exèrcit que només pot utilitzar armes per a la defensa personal) i dels civils en general. Existeix la possibilitat que l'obra mori els ferits i els que es rendeixin, cosa que està prohibit per les regles de guerra vigents.
Què impedeix que la feina interrompi totes les parts del conflicte, fins i tot els propietaris d’aquestes armes? Els elements d’intel·ligència artificial ja s’utilitzen amb èxit en equipament militar, míssils; els robots són atrets pel reconeixement, però la paraula final encara recau en els humans. Les armes autònomes no obeiran les ordres dels comandants, per això són autònomes. És per això que els generals militars de diferents països són escèptics quant a la introducció de màquines a les files del personal.
I una pregunta més oberta és el terrorisme internacional. La tecnologia d’armes autònomes pot caure en mans equivocades i, finalment, es pot piratejar. Fa un any, el president rus Vladimir Putin va dir que el governant del món serà qui esdevindrà el líder en el desenvolupament de la intel·ligència artificial. En el cas de les armes autònomes, qui accedeixi a aquestes tecnologies esdevindrà el governant del món. I, per a això, de fet, només necessiteu un ordinador i un esquivador que passin pels sistemes de seguretat. Per cert, el Pentàgon ha estat piratejat més d’una vegada. En conseqüència, ningú no pot donar garanties que les armes autònomes romandran inviolables.
Tampoc està clar qui serà legalment responsable si es comet un crim de guerra com a conseqüència del funcionament del sistema d'armes autònom. “L'enginyer, programador, fabricant o comandant que va utilitzar l'arma? Si la responsabilitat no es pot definir tal com ho exigeix el dret internacional humanitari, es pot reconèixer el desplegament d'aquests sistemes com a legal o èticament justificat?
Curiosament, els científics també van defensar la prohibició dels robots de combat. Al juliol d’aquest any, més de dos mil científics, en particular el creador de Tesla i SpaceX Elon Musk i els cofundadors de DeepMind, van signar un document que no desenvoluparia armes autònomes letals. Google va fer el mateix. El gegant tecnològic ha renunciat a treballar en el projecte Maven del Pentàgon. I el 2017, diversos científics ja van demanar a l’ONU que prohibís la creació de robots assassins.
Per cert, el tema de la intel·ligència artificial a la guerra va aparèixer a l’agenda de les Nacions Unides a finals del 2013, però pràcticament no ha canviat res des d’aleshores. Només aquest any van començar les reunions d’experts en el format de la Convenció sobre les armes inhumanes. És a dir, van trigar més de quatre anys a arribar a algun pla més o menys pràctic.
Per què no volen prohibir les armes autònomes
Per molt banal que sembli, la carrera armamentística és la raó principal per la qual no volen prohibir els robots assassins. Putin té raó: qui aconsegueix armes autònomes primer dominarà el món. Oficialment, es dóna veu a aquest motiu.
El principal argument dels opositors a la prohibició és la impossibilitat de separar la intel·ligència artificial civil dels militars. Igualment, no prohibirem els ganivets de cuina només perquè els terroristes els puguin utilitzar. De fet, és pràcticament impossible separar el desenvolupament civil de la intel·ligència artificial del militar. Però ara estem parlant de la prohibició d'aquesta arma, que serà capaç de determinar i atacar objectius de forma independent. Aquest podria ser el projecte Maven, en què el Departament de Defensa dels EUA està treballant conjuntament amb Booz Allen Hamilton (Google va rebutjar el contracte).
Els desenvolupadors de Maven volen ensenyar als drons a analitzar imatges, en particular a partir de satèl·lits i, potencialment, a identificar objectius d’atac. El Pentàgon va començar a treballar en el projecte a l'abril de 2017 i esperava obtenir els primers algoritmes de treball a finals d'any. Però a través de la desarmada dels empleats de Google, el desenvolupament es va endarrerir. A partir de juny d’aquest any, segons Gizmodo, el sistema podia distingir entre objectes elementals (cotxes, persones), però va resultar ser totalment insignificant en situacions difícils. Si, tanmateix, s’adopta la prohibició d’armes autònomes a l’ONU, el projecte s’haurà de desestimar, mentre que el Pentàgon afirma que el seu desenvolupament pot salvar vides, perquè es pot programar perquè funcioni amb més precisió i fiabilitat si es compara amb les persones.
"Cal entendre que estem parlant de tecnologia, que no té mostres que funcionin. La idea d'aquests sistemes encara és molt superficial", va assenyalar la vigília de la reunió a Ginebra al Ministeri d'Afers Exteriors de Rússia. - Al nostre parer, el dret internacional, en particular, el sector humanitari, es pot aplicar a les armes autònomes. No necessiten modernització ni adaptació a sistemes que encara no existeixen ".
Bé, i una raó més real, però no expressada, són els diners. Avui, el mercat de les tecnologies d’intel·ligència artificial militar s’estima en més de sis mil milions de dòlars. Però per al 2025 la xifra es triplicarà, fins a gairebé 19.000 milions, segons els analistes de la companyia nord-americana MarketsandMarkets. Per als majors exportadors d’armes, aquesta és una bona motivació per bloquejar qualsevol restricció al desenvolupament de robots assassins.
El progrés no es pot aturar
Els defensors de la prohibició d’armes autònomes assenyalen que la tecnologia es desenvolupa molt ràpidament i que la intel·ligència artificial acabarà convertint-se en una arma, en qüestió de temps. Hi ha lògica en les seves paraules. La intel·ligència artificial és una part integral de la quarta revolució científica i tecnològica, que continua ara. Cal tenir en compte que el progrés tècnic està associat d’una manera o altra a les operacions militars. La tercera revolució científica i tecnològica va durar fins a mitjans dels anys 50 del segle XX, és a dir, el seu apogeu va caure en el període de la Segona Guerra Mundial.
El 1949, Ginebra va adoptar la Convenció per a la protecció de les persones civils en temps de guerra. A la postguerra, també van complementar la IV Convenció de l’Haia de 1907, que determinava les normes per a la realització de la guerra. És a dir, els horrors de la Segona Guerra Mundial es van convertir en el catalitzador d’aquest procés. Per tant, els defensors dels drets humans no volen esperar que la Tercera Guerra Mundial protegeixi la humanitat de les armes autònomes. Per això, ara és necessari decidir el destí dels robots assassins, insisteixen.
Segons experts de Human Rights Watch, l'ús de robots de combat contradiu la Declaració de Martens, el preàmbul de la Convenció de l'Haia de 1899 sobre les lleis i costums de guerra. En altres paraules, els robots assassins violen les lleis de la humanitat i els requisits de consciència pública (la posició es va confirmar a la IV Convenció de l’Haia).
"Hem de treballar junts per imposar una prohibició preventiva a aquests sistemes d'armes abans que s'escampin per tot el món", va dir Bonnie Doherty, investigadora sènior del departament d'armes de Human Rights Watch.
Bé, aquesta vegada no va funcionar prohibir els robots assassins. Com és previsible, les reunions del novembre també seran infructuoses. És cert, gairebé tots els països estan d’acord: la tecnologia no es pot deixar fluir per gravetat i els robots de combat necessiten una grua de parada. Però encara no està clar si la humanitat tindrà temps per tirar-la endavant quan sorgeixi la necessitat.