Utilizar la IA de forma segura: Desafíos jurídicos

Secretos comerciales y protección de datos: hay escollos legales al acecho cuando se utiliza inteligencia artificial generativa que pueden tener graves consecuencias si no se respetan. Averigua qué debes tener en cuenta y cómo puedes reducir significativamente el riesgo de infracciones legales con una plataforma de adopción digital.
18. Marzo 2024
6 min

Sin embargo, con la introducción de ChatGPT, Google Gemini y otras aplicaciones GenAI, las empresas no sólo están entrando en un nuevo territorio técnico. También están operando en un ámbito que exige nuevas responsabilidades y plantea retos legales tanto para los responsables de la toma de decisiones como para los empleados.

No utilices secretos comerciales en las indicaciones

Varios medios de comunicación han informado de que Samsung suspendió recientemente el uso interno de ChatGPT. El motivo: los ingenieros habían introducido código fuente secreto para depuración y notas confidenciales de reuniones en la ventana de chat. No se habían dado cuenta de que OpenAI utilizaría la información revelada para entrenar el software y pasárselo a cualquiera. 

Este caso demuestra lo rápido que se puede acusar a las empresas de no haber tomado las medidas de confidencialidad adecuadas. Esto se debe a que las condiciones de uso excluyen a los proveedores de GenAI como infractores. En su lugar, son responsables los empleados, los directivos y la dirección. Y esto también se aplica si revelan involuntariamente secretos comerciales, datos confidenciales de clientes o datos personales. Dependiendo del alcance del daño y del motivo de la infracción, las consecuencias van desde una advertencia hasta el cese sin previo aviso, pasando por daños y perjuicios y penas de prisión. 

Es posible que el operador de la IA borre posteriormente la información. Sin embargo, incluso con aplicaciones de IA protegidas por API, la mejor protección es no utilizar información confidencial en los mensajes. En el caso de información sensible de clientes, proveedores y otras partes interesadas, deben utilizarse contratos y obligaciones de confidencialidad para comprobar si se pueden utilizar datos en las herramientas GenAI y cuáles. 

Proteger la privacidad de los datos y los derechos personales

El Reglamento General de Protección de Datos (RGPD) establece normas estrictas para el tratamiento de los datos personales. En consecuencia, las empresas también están obligadas a garantizar que su uso de los sistemas de IA cumple los requisitos del GDPR

Por ejemplo, hay que tener cuidado para garantizar que los datos de entrenamiento y los algoritmos de IA utilizados no den lugar a discriminaciones o prejuicios que coloquen a los empleados, clientes o solicitantes en una situación de desventaja ilegal. Si las contramedidas adoptadas no son suficientes, la empresa debe responder por sí misma en caso de demanda y pagar daños y perjuicios si pierde.

Un riesgo adicional es que el tratamiento de datos personales con aplicaciones GenAI también puede tener lugar fuera de la UE. Si este proceso no cumple el GDPR, existe el riesgo de multas severas.

La gestión de riesgos debe basarse en la Ley de IA de la UE

Con la Ley de IA de la UE, la Unión Europea quiere dirigir el uso de aplicaciones basadas en IA en una dirección segura. A finales de 2023, el Parlamento Europeo y los Estados miembros de la UE acordaron una versión que ofrece un avance de la ley, cuya entrada en vigor está prevista para 2026. Clasifica las aplicaciones de IA en tres categorías de riesgo:

Riesgo inaceptablemente alto

Las aplicaciones de IA que se consideran una amenaza para los derechos fundamentales y la seguridad de los ciudadanos de la UE y están prohibidas para las empresas, como los sistemas de vigilancia o los marcadores sociales. 

Alto riesgo

Aplicaciones de la IA que no están explícitamente prohibidas pero que pueden provocar desventajas, por ejemplo aplicaciones de la IA para apoyar la selección de candidatos.

Riesgo bajo

Todos los demás sistemas de IA, incluidos los chatbots o los videojuegos con IA. 

Para evitar riesgos de seguridad y violaciones de la protección de datos, las empresas deberían orientar ya sus evaluaciones internas según el enfoque basado en el riesgo de la Ley de IA de la UE. Las aplicaciones de IA con un riesgo inaceptablemente alto deben desactivarse. En el caso de la IA de alto riesgo, como la analítica de personas o la contratación de RRHH, debe prestarse especial atención a los futuros requisitos para su uso. Por ejemplo, las empresas deben garantizar la transparencia y cumplir las especificaciones sobre documentación técnica y registro de eventos. También deben considerar los futuros requisitos de precisión, solidez y ciberseguridad de los sistemas y adaptar sus procesos a los requisitos de la directiva de la UE. 

Marco propio de la empresa para el uso de la IA

Independientemente de esto, es aconsejable desarrollar un marco básico para el uso de aplicaciones GenAI en el lugar de trabajo que minimice los riesgos y evite desarrollos no deseados. Esto incluye, en particular, los siguientes puntos

  • Realiza una evaluación exhaustiva de la gestión del riesgo de cumplimiento y documenta los resultados.
  • Creación de una directriz reguladora para el uso de aplicaciones GenAI.
  • Crea un grupo de trabajo sobre IA que ancle firmemente las directrices en la cultura empresarial y laboral mediante la comunicación y la gestión.
  • Garantizar la supervisión de extremo a extremo de los procesos operativos y definir los procesos de información y escalado necesarios.  
  • Aclara quién debe tener qué acceso a las aplicaciones GenAI en la empresa y para qué empleados debe restringirse o prohibirse su uso con el fin de proteger los secretos empresariales. Adapta las directrices e instrucciones de trabajo en consecuencia.

El apoyo directo en el lugar de trabajo es crucial

Hay que tener en cuenta que las empresas y sus empleados deben ser conscientes de una serie de cosas cuando utilicen aplicaciones GenAI. Los riesgos son considerables y contenerlos eficazmente es una tarea difícil. El legislador también lo reconoce. Por eso, la Ley de IA de la UE obligará a las empresas a formar a sus empleados en el uso de GenAI en el futuro.  

En vista del desarrollo tecnológico dinámico, el impacto de gran alcance en las rutinas de trabajo y las incertidumbres asociadas, es probable que las medidas de formación tradicionales alcancen rápidamente sus límites aquí. Por tanto, las empresas deberían plantearse desde el principio una solución que apoye a sus empleados en las cuestiones sobre el uso correcto y conforme a la ley de las aplicaciones GenAI y los procesos, directrices y procedimientos correspondientes directamente en el flujo de trabajo.

Una plataforma de adopción digital como la tts performance suite ofrece precisamente este apoyo: proporciona ayuda integral directamente en el flujo de trabajo y garantiza que las nuevas tecnologías se utilicen de forma eficaz y conforme a la normativa. El exclusivo enfoque paralelo de la tts performance suite coloca una ventana de ayuda junto a la aplicación de IA, como si fuera una barra lateral. Por ejemplo, los usuarios tienen acceso a información sobre las herramientas de IA aprobadas y las normativas de cumplimiento, así como a ayuda sobre avisos y ejemplos de avisos, sin tener que salir de la herramienta de IA. Esto garantiza que los empleados utilicen el programa GenAI con seguridad y confianza en todo momento, de acuerdo con las directrices de IA.

Newsletter

¡Regístrate ahora y no vuelvas a perderte un puesto!
Al introducir mi dirección de correo electrónico, doy mi consentimiento para el tratamiento de mis datos de acuerdo con la declaración de consentimiento.

Artículos relacionados