GeboArt.Dev



© Reuters. Imagen de archivo de una señal de inteligencia artificial en una conferencia en Shanghái, China. 6 julio 2023. REUTERS/Aly Song

Por Raphael Satter y Martin Coulter

30 ago (Reuters) – Las autoridades británicas advirtieron a las organizaciones sobre la integración de chatbots basados en inteligencia artificial en sus empresas, afirmando que las investigaciones han demostrado cada vez más que pueden ser engañados para realizar tareas perjudiciales.

En un par de entradas de blog publicadas el miércoles, el Centro Nacional de Ciberseguridad británico (NCSC, por sus siglas en inglés) indicó que los expertos aún no han llegado a comprender los posibles problemas de seguridad relacionados con los algoritmos que pueden generar interacciones que parezcan humanas, conocidos como modelos de lenguaje extensos (LLM, por sus siglas en inglés).

Estas herramientas basadas en inteligencia artificial se están empezando a utilizar en forma de chatbots que, según algunas previsiones, sustituirán no sólo a las búsquedas en Internet, sino también a los servicios de atención al cliente y las llamadas de ventas.

Según el NCSC, esto podría entrañar riesgos, sobre todo si esos modelos se integraran en los procesos empresariales de otras organizaciones. Académicos e investigadores han encontrado en repetidas ocasiones formas de subvertir los chatbots introduciéndoles comandos falsos o engañándolos para que burlen sus propias barreras de seguridad.

Por ejemplo, un chatbot con IA desplegado por un banco podría ser engañado para que realizara una transacción no autorizada si un pirata informático estructurara su consulta de forma correcta.

«Las organizaciones que crean servicios que utilizan LLM deben tener cuidado, del mismo modo que lo tendrían si estuvieran utilizando un producto o una biblioteca de código en fase beta», afirmó el NCSC en una de sus entradas de blog, en referencia a las versiones experimentales de software.

«Es posible que no permitan que ese producto participe en la realización de transacciones en nombre del cliente, y es de esperar que no confíen plenamente en él. Una precaución similar debería aplicarse a los LLM», señaló.

Las autoridades de todo el mundo están lidiando con el auge de LLM como ChatGPT de OpenAI, que las empresas están incorporando a una amplia gama de servicios, incluidos los de ventas y atención al cliente. Las implicaciones de la IA para la seguridad también se están poniendo de manifiesto y las autoridades de Estados Unidos y Canadá afirman que los piratas informáticos han adoptado esa tecnología.

(Editado en español por Carlos Serrano)



Source link


Descubre más desde GeboArt.Dev

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Deja un comentario

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Ir al contenido