La IA, sin la incertidumbre

Cómo lo ven los empleados

  • En una encuesta a más de 4000 empleados entre los equipos de ventas, asistencia, marketing y comercio, un 73 % opinan que la IA generativa introduce nuevos riesgos de seguridad.

  • El 60 % que planean usar la IA afirman que no saben cómo lograrlo y a la vez lograr mantener a buen recaudo los datos sensibles.

  • Estos riesgos preocupan particularmente a los sectores muy regulados, como los servicios financieros y de salud.

Qué puedes hacer ahora

Asóciate con empresas que desarrollen protecciones en el tejido de sus sistemas de IA. Estos son los motivos por los que esto es importante: 

  • Los grandes modelos de lenguaje (LLM) contienen grandes cantidades de datos, pero son distintos a otros repositorios de datos, como las bases de datos o las hojas de cálculo de Excel. No cuentan con las protecciones de seguridad ni los controles de acceso que encontramos en las grandes bases de datos ni las funciones de privacidad de bloqueo de celda de las hojas de cálculo.

  • “No puedes incluir los datos más sensibles, privados y seguros de tus clientes en un gran modelo de lenguaje al que puedan acceder todos tus empleados”, indica Marc Benioff, director general de Salesforce

Cómo incorporar la privacidad de datos de IA en tus sistemas

Patrick Stokes, vicepresidente ejecutivo de Marketing Sectorial en Salesforce, explicó que con AI Cloud se pueden aprovechar las ventajas de productividad de la IA sin regalar los datos de tu empresa. La privacidad de los datos de IA, afirma, requiere varias salvaguardas:

El anclado dinámico orienta las respuestas de un LLM usando la información más actualizada y correcta, “anclando” el modelo en datos reales y un contexto relevante. Esto evita las llamadas alucinaciones de IA y las respuestas incorrectas que no guardan relación con la realidad.

El enmascarado de datos sustituye los datos sensibles con datos anonimizados para proteger la información privada y cumplir con los requisitos de privacidad. El enmascarado de datos es particularmente útil para garantizar que se ha eliminado toda la información personalmente identificable, como nombres, números de teléfono y direcciones, al escribir peticiones de IA.

La detección de toxicidad es un método para detectar contenido tóxico como la incitación al odio y los estereotipos negativos. Para lograrlo, utiliza un modelo de aprendizaje automático para analizar y puntuar las respuestas que proporciona un LLM, lo cual garantiza que el texto generado por el modelo es apto para el uso en un contexto empresarial. 

La retención cero significa que ni un ápice de los datos del cliente se almacena fuera de Salesforce. Las peticiones de IA generativa y los resultados nunca se almacenan en el LLM y este no aprende de ellos, sino que simplemente desaparecen.

La auditoría evalúa continuamente los sistemas para garantizar que funcionan según lo esperado, sin sesgos, con datos de alta calidad y en alineación con los marcos normativos y de la organización. Las auditorías también ayudan a las organizaciones a satisfacer los requisitos de cumplimiento, puesto que registran las peticiones, los datos usados, los resultados y las modificaciones del usuario final en una pista de auditoría segura.

La recuperación de datos segura es la forma en que Einstein  (la primera solución de IA generativa para la gestión de las relaciones con los clientes (CRM)) obtiene datos de Salesforce, incluido Data Cloud, como parte del proceso de anclado dinámico. Esto permite aportar los datos necesarios para construir peticiones contextuales. En cada interacción, se aplican las políticas de gobernanza y los permisos para garantizar que solo las personas con autorización pueden acceder a los datos.

Julie Sweet, directora ejecutiva de Accenture, afirmó que los riesgos se mitigan cuando las salvaguardas de privacidad y seguridad como estas se integran directamente en la tecnología.

La confianza en la privacidad de los datos de IA empieza con una buena gobernanza

Toda la tecnología del mundo no basta para garantizar que la IA sea transparente, responsable y segura. Para ello, también hace falta una buena gobernanza, empezando por arriba, y llevar a cabo una supervisión humana de los sistemas de IA.

Según un informe de KPMG, el 75 % de las personas que participaron en la encuesta estarían más dispuestos a confiar en los sistemas de IA si hubiera mecanismos para garantizar el uso ético y responsable de la tecnología.

Según este informe, “estos mecanismos incluyen un sistema de monitorización que sea preciso y fiable, un código de conducta de IA, la supervisión por parte de una junta de revisión ética independiente de IA y una certificación de ética de IA para establecer los principios de gobernanza”.

En Accenture, el comité de auditoría de su junta de dirección supervisa el programa de cumplimiento de IA para los 55.000 empleados de la firma.

“Si no puedes llamar a alguien al azar de tu empresa y que te indiquen dónde se está utilizando la IA, qué riesgos existen, cómo se están mitigando y quién es la persona responsable, no tienes todavía un sistema de IA responsable”, sentencia Sweet.

La IA de confianza es especialmente decisiva en sectores regulados

Los líderes de sectores altamente regulados como los servicios financieros y los proveedores de salud son cautos a la hora de implementar la IA para no sacrificar la confianza y la seguridad del cliente. Para garantizar el cumplimiento de la normativa, estos sectores deben explorar casos prácticos que no ponen en riesgo la privacidad de los datos ni la seguridad.

  • Para los servicios bancarios, esto puede incluir el uso de la automatización para hacer más eficientes las tareas y procesos rutinarios, como las disputas sobre transacciones, o el uso de IA para impulsar chatbots más inteligentes que personalicen más las interacciones con los clientes y mejoren el autoservicio.

  • Para los proveedores de salud, la IA puede ayudarles a segmentar la población de pacientes más eficazmente para que puedan enviar comunicaciones más personalizadas y pertinentes, como consejos para pacientes de diabetes sobre niveles bajos de azúcar en la sangre cuando sus niveles de glucosa llegan a puntos críticos.

Benioff afirmó hace poco que la IA generativa podía ser la “tecnología más importante de cualquier vida”. Está claro que la IA generativa podría hacer que el ecommerce, que cambió para siempre el comportamiento del cliente, los sectores y los modelos de negocio, parezca ahora un avance relativo. McKinsey ha estimado recientemente que el impacto de la IA en la productividad puede añadir billones de dólares cada año a la economía global. Pero debemos tener un alto grado de confianza en estos sistemas antes de que esto pueda suceder.

“Es esencial que la IA sea fiable”, concluyó KPMG en un estudio. “Si más personas perciben que los sistemas de IA son de confianza y están dispuestos a confiar en ellos, también tendrán más probabilidades de aceptarlos”.

Una gran IA comporta una gran responsabilidad

Este módulo de aprendizaje te mostrará cómo eliminar los sesgos de tus datos y algoritmos para crear sistemas de IA éticos en tu empresa.

Fuente info
Autor:

Solicitar DEMO GRATUITA
Contáctanos ahora:



×