Preocupación por los riesgos de seguridad

Usar la Inteligencia Artificial (IA) en el trabajo: los directivos temen pérdidas

Una encuesta realizada por Kaspersky a más de 500 altos cargos revela que la mayoría expresa preocupación por posibles pérdidas o problemas de seguridad derivados del uso de sistemas de IA generativa como ChatGPT

Inteligencia Artificial (IA)
Usar la Inteligencia Artificial (IA) en el trabajo: los directivos temen pérdidas. 
Alexandra_Koch / Pixabay

Los directivos de las empresas españolas se muestran preocupados por los efectos que el uso de la inteligencia artificial generativa, como la aplicación ChatGPT, puede tener en su negocio, según una encuesta realizada por la compañía dedicada a los servicios de ciberseguridad Kaspersky.

En concreto, casi la totalidad de los más de quinientos altos cargos encuestados en el estudio han afirmado creer que sus empleados utilizan este tipo de plataformas en su trabajo. Además, la mayoría ha expresado también preocupación por las posibles pérdidas económicas y el filtrado de información confidencial.

A pesar de que los directivos no confían aún plenamente en la seguridad del uso de estos sistemas, el uso de  las aplicaciones de inteligencia artificial que sirven para crear textos, imágenes o música se ha implementado ya en las compañías españolas, con el fin de automatizar los procesos más repetitivos o ayudar a llevar a cabo diversas tareas de forma más eficiente.

Menos del 20% cuenta con reglamentos de uso de IA

Los datos facilitados por esta compañía revelan que solo el 19% de los directivos encuestados en España ha debatido en el seno de sus empresas reglas para controlar el uso de esos sistemas de inteligencia artificial, aunque el 95% de ellos ve necesario un mayor conocimiento del uso que los trabajadores hacen de esa tecnología para estar protegidos frente a riesgos de seguridad o fugas de datos.

Uno de cada cuatro de los directivos encuestados reconoce además que no sabe lo que ocurre con los datos que introduce en esos sistemas de inteligencia artificial, a pesar de que los más populares, como el ChatGPT, son capaces de almacenar información como la dirección IP desde la que se trabaja, el tipo de navegador o la configuración del usuario.

Casi la mitad de las empresas no tiene ninguna normativa interna sobre la utilización de esas herramientas, según las conclusiones del trabajo que ha realizado esta compañía, que revela que el 31% de los usuarios de ese tipo de sistemas considera que es importante no compartir datos privados, y sin embargo lo hacen.

Para mantenerse protegido frente a las ciberamenazas, los expertos de esta empresa han incidido en la importancia de no introducir información delicada ni datos confidenciales, ni personales ni corporativos, crear normas internas que regulen el uso de la inteligencia artificial generativa durante la jornada laboral, concienciar y formar a los empleados en materia de ciberseguridad, o generar contraseñas complejas.

Mostrar comentarios