
"Más beneficios que riesgos": Google explica por qué aprueba ahora usar la IA para armas

La corporación tecnológica estadounidense Google ha explicado por qué ha actualizado sus directrices sobre aplicaciones de inteligencia artificial (IA), eliminando la cláusula que impedía utilizar esta tecnología para la creación de armas o de herramientas vigilancia, en medio de la creciente implicación de la empresa en los asuntos mundiales.
"Algunas de las prohibiciones estrictas que figuraban en [la primera versión] de los principios de la IA no encajan bien con las conversaciones más matizadas que estamos manteniendo ahora [...]. Nuestra estrella polar en todo esto es que los beneficios superan sustancialmente a los riesgos", declaró a The Guardian el presidente para asuntos globales y director jurídico de la corporación, Kent Walker.

"Cada vez se nos pide más que nos sentemos a la mesa en algunas conversaciones importantes, y creo que es bueno para la sociedad que Google desempeñe un papel en esas conversaciones en áreas en las que estamos especializados: la ciberseguridad, o algunos de los trabajos en torno a la biología, y muchos más", dijo Walker.
"Tecnología que puede matar"
Anteriormente, desde la compañía señalaron que "las democracias deberían liderar el desarrollo de la IA guiadas por valores fundamentales como la libertad, la igualdad y el respeto por los derechos humanos". En este sentido, argumentaban que "las empresas, los gobiernos y las organizaciones que comparten estos valores deberían trabajar juntos para crear una IA que proteja a las personas".
Margaret Mitchell, que codirigió el departamento de ética de la IA de Google, sugiere que la razón que ha llevado a la compañía a cambiar su política podría ser su eventual participación en la creación de tecnología letal. "Significa que Google, probablemente, ahora trabajará en el despliegue directo de tecnología que puede matar a personas", dijo la experta.