Google anunció este jueves que no desarrollará inteligencia artificial para armas o para “causar o facilitar directamente lesiones a personas”, al presentar un conjunto de principios para el uso de esta tecnología.

“Continuaremos nuestro trabajo con el gobierno y las fuerzas armadas en muchas otras áreas”, escribió el presidente de la empresa, Sundar Pichai.

El anuncio llegó luego de que 3.100 empleados del gigante tecnológico firmaran una carta en la que demandaban a la empresa que no participe “en el negocio de la guerra” y, además, que cese su colaboración con el Pentágono en el proyecto Maven.

Tal fue la presión, que Google tuvo que dar marcha atrás y no renovar el contrato para proveer un software de inteligencia artificial para uso militar al gobierno de Estados Unidos.

Los objetivos de Google para la IA

En el blog de la compañía, Pichai desarrolló una serie de objetivos para los cuales van a desarrollar la inteligencia artificial. Estos son:

1. Que tenga un beneficio social.

2. Que evite crear o reforzar prejuicios injustos.

3. Que sea construida y probada para ser segura.

4. Que rinda cuentas a las personas.

5. Que incorpore principios de privacidad en el diseño.

6. Que mantenga altos estándares de excelencia científica.

7. Que esté disponible para usos que acuerden con estos principios.

Qué aplicaciones no se van a desarrollar

El CEO de Google también definió cuáles son las aplicaciones que no se van a desarrollar con la inteligencia artificial.

1. Tecnologías que causen o pueden causar un daño general.

2. Armas u otras tecnologías cuyo principal propósito o implementación sea causar o facilitar directamente lesiones a las personas.

3. Tecnologías que recopilen o usen información para la vigilancia que viole las normas internacionalmente aceptadas.

4. Tecnologías cuyo propósito infringe los principios ampliamente aceptados del derecho internacional y los derechos humanos.

Deja un comentario