GeboArt.Dev


Una de las mayores preocupaciones que existen en torno a la inteligencia artificial tiene que ver con su inminente uso en el sector militar. Este último se encuentra en una búsqueda constante de nuevas tecnologías que les otorguen ventajas en el campo de batalla, así que la IA eventualmente se convertirá en un aliado clave. En OpenAI saben que ellos pueden ser un socio para las fuerzas armadas de diversos países, y no piensan desaprovecharlo.

Hasta hace apenas unos días, OpenAI prohibía el uso de sus modelos de lenguaje de inteligencia artificial en el terreno militar y la guerra. Sin embargo, según la información de The Intercept, el pasado 10 de enero actualizaron sus políticas para retirar esa exclusión. Lo anterior, efectivamente, se puede comprobar al inspeccionar una versión antigua de su web almacenada en Internet Archive.

Evidentemente, en OpenAI optaron por hacer el menor ruido posible con este importante cambio. ¿Por qué? Porque es polémico. No obstante, tarde o temprano se iba a descubrir.

El citado medio se puso en contacto con OpenAI para obtener más información al respecto. En la compañía consideran que, en lugar de usar las palabras «militar y guerra», es más prudente prohibir la utilización de su inteligencia artificial para «dañar a otros». El problema es que esta frase puede tener un significado bastante amplio y no cierra la puerta, como antes, a que se use en la guerra con distintos fines.

Con relación al momento en que realizaron esta modificación a sus normas, OpenAI afirma que se debe el reciente lanzamiento de GPTs. Es decir, la posibilidad de que la gente puede crear sus propios chatbots sin tener conocimientos avanzados en programación. En consecuencia, vieron conveniente transmitir a los usuarios que no pueden crear una herramienta para perjudicar a otros.

«OpenAI tenía como objetivo crear un conjunto de principios universales que sean fáciles de recordar y aplicar, especialmente porque nuestras herramientas ahora son utilizadas globalmente por usuarios cotidianos que ahora también pueden construir sus propios GPTs.»
OpenAI.

¿Ninguno de esos argumentos te convence? A nosotros tampoco. La verdadera razón detrás del cambio es otra, una que posiblemente sospechaste desde un inicio.

OpenAI quiere trabajar con organismos militares

Bloqueo a OpenAI: la restricción impuesta por los medios apunta al rastreador web GPTBot.
Bloqueo a OpenAI: la restricción impuesta por los medios apunta al rastreador web GPTBot.

Al final, en un comunicado compartido con Endgadget, OpenAI reconoció que ya se encuentran trabajando con la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA, por sus siglas en inglés), un organismo que pertenece al Departamento de Defensa de Estados Unidos y cuyo propósito es desarrollar nuevas tecnologías para su uso militar.

«Nuestra política no permite que nuestras herramientas se utilicen para dañar a las personas, desarrollar armas, vigilar las comunicaciones, herir a otros o destruir propiedades. Sin embargo, existen casos de uso de seguridad nacional que se alinean con nuestra misión.

Por ejemplo, ya estamos trabajando con DARPA para impulsar la creación de nuevas herramientas de ciberseguridad para proteger el software de código abierto del que depende su infraestructura crítica. No estaba claro si estos casos de uso beneficiosos se habrían permitido bajo el término «militar» en nuestras políticas anteriores. Por lo tanto, el objetivo de nuestra actualización es brindar claridad y la capacidad de tener estas discusiones.»
OpenAI.

Sin duda, se liaron demasiado con el tema. Solo tenían que reconocer y enfatizar, desde un principio, que cambiaron su política para poder trabajar con gobiernos y obtener contratos multimillonarios. Tan sencillo como eso.



Source link

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Ir al contenido