Alphabet / Google ha decidido dar el paso tan postergado: utilizará su Inteligencia Artificial para crear armas y tecnologías de vigilancia que le interesan al supermillonario Departamento de Defensa de USA.
Alphabet / Google ya lo había intentado cuando los drones eran las estrellas del nuevo armamento, pero en ese momento ocurrió una insubordinación de investigadores que exigían que Alphabet / Google cumpliera con su compromiso fundacional. Todos terminaron despedidos.
Con un argumento bien estadounidense, Alphabet / Google cumplirá con aquel proyecto: «Queremos ayudar a las democracias a proteger la libertad y los derechos humanos». Es parecido a todo lo que explican los de NSO (Pegasus) y Paragon Solutions (ambos de Israel) cuando aparecen escándalos por periodistas o políticos opositores espiados con su tecnología.
El holding ha realizado un cambio importante en el documento que describe los principios de la compañía para trabajar con inteligencia artificial: eliminaron la cláusula que prohíbe el uso de la IA para crear armas y/o herramientas de vigilancia.
The Washington Post (de Jeff Bezos / Amazon) llamó la atención el martes 04/02 sobre los cambios en la forma en que Alphabet / Google trabaja con IA. El Post demostró que los cambios se realizaron recientemente. Una copia archivada de la página del 30/01 todavía incluye restricciones al uso de IA en ciertas áreas.
Obviamente esto coincide con el anuncio de Amazon de que invertirá US$ 100.000 millones en el desarrollo de Inteligencia Artificial propia.
Los periodistas del Post recordaron que Google presentó sus principios de trabajo con Inteligencia Artificial en 2018. Lo hicieron precisamente como consecuencia de aquella protesta de los empleados contra la cooperación con el Pentágono en el marco del Proyecto Maven. El contrato militar implicaba el uso de los algoritmos de visión artificial de Google para analizar imágenes capturadas por drones.
«Creemos que Google no debería involucrarse en la guerra», afirmò una carta abierta firmada por más de 3.000 empleados de la empresa, acción que llevó el debate doméstico a la opinión pública global. Ellos exigieron que el proyecto se cerrara de inmediato y que se desarrollara una política transparente para el uso de las tecnologías de Google. En particular, la dirección debía garantizar que ni la propia empresa ni sus contratistas crearan jamás tecnologías militares.
En aquella oportunidad, Google abandonó el proyecto el Proyecto Maven. También publicó el documento exigido: Google no desarrollaría la inteligencia artificial (ni implementaría desarrollos existentes) para 4 áreas de aplicación: Tecnologías que causan o pueden causar daño general, armas u otras tecnologías cuyo propósito o uso principal sea causar daño a las personas o contribuir directamente a ese daño, tecnologías que recopilan o utilizan información con fines de vigilancia en violación de normas internacionalmente aceptadas y tecnologías cuyo propósito sea contrario a los principios generalmente aceptados del derecho internacional y de los derechos humanos.
Pero se incluyó una frase aclaratoria: “A medida que se acumule experiencia en esta área, la lista puede cambiar”.
Luego se procedió a la tarea de que los contestatarios fuesen abandonando la empresa.
The Washington Post contactó a Google para solicitar comentarios, pero la compañía se negó a responder preguntas específicas sobre el uso militar de la IA.