informa
08/01

Cómo deben avanzar las empresas frente a la Inteligencia Artificial

Según KMPG Generative AI Survey 2023, que  recopiló información de 200 líderes en Estados Unidos, sobre el impacto transformador de esta tecnología emergente, casi 8 de cada 10 dice que las regulaciones "poco claras y en evolución" están afectando las inversiones de tiempo, dinero y personas en IA.

La inteligencia artificial (IA) generativa se mueve a pasos agigantados y  la importancia de gestionar los riesgos relacionados se está disparando con la misma rapidez en la lista de prioridades de la alta dirección.
Así al menos lo cree KPMG que advierte que «los expertos en riesgo y cumplimiento enfrentan el desafío de mantenerse al día» , la pregunta es ¿en qué?. «Aún no se han establecido leyes formales sobre la IA y las tecnologías de IA generativa (GenAI),  por lo que los líderes empresariales deben establecer de manera proactiva sus propios protocolos apropiados para garantizar la seguridad, la equidad y el uso ético».

Sentencia que las empresas deben ser tan adaptables como la propia GenAI, «evaluando continuamente los sesgos inherentes, la transparencia, la gobernanza y la privacidad de los datos, y luego actualizando su enfoque en consecuencia».

Según la KMPG Generative AI Survey 2023, que  recopiló información de 200 líderes empresariales de alto nivel en Estados Unidos sobre el impacto transformador de esta tecnología emergente, casi 8 de cada 10 dice que las regulaciones poco claras y en evolución están afectando las inversiones de tiempo, dinero y personas en IA. Un tercio plantea que no están desacelerando en absoluto su adopción de la IA, mientras que otro 41% está dispuesto a esperar atentamente, pero no más de seis meses por temor a perder terreno frente a los competidores.

¿Cómo pueden las organizaciones innovar y adoptar tecnologías como la IA generativa y al mismo tiempo garantizar la confianza y el cumplimiento? Según el sondeo de KPMG hay tres áreas de enfoque a corto plazo:

1.- Regulaciones

El debate sobre qué barreras de seguridad, si las hay, deberían colocarse en torno a la IA es casi tan candente como la propia tecnología. Las regulaciones existentes que se aplican a todos los “sistemas automatizados” también regulan su uso. Aún así, muchos creen que esto no es suficiente.

Durante los últimos seis meses, se ha introducido legislación bipartidista tanto en la Cámara de Representantes como en el Senado de Estados Unidos en torno a la divulgación de información sobre IA. La Unión Europea acaba de publicar una legislación histórica que regularía la IA siguiendo un enfoque basado en el riesgo. Mientras tanto, más de dos docenas de estados han presentado proyectos de ley destinados a proteger a los consumidores de su uso indebido.

La encuesta reveló que hay varias áreas legislativas clave que los líderes empresariales están observando: gestión de riesgos,  protecciones contra usos inapropiados o discriminatorios;  justicia, aplicaciones de inteligencia artificial que infringen las leyes de protección de consumidores y empleados y  privacidad,  que incluye acceso, consentimiento, uso y seguridad de los datos del consumidor.

2.- Complejidad

La promesa de la IA es tan evidente como el peligro, y ese es precisamente el desafío que enfrentan los líderes empresariales cuando se trata de su adopción. Es probable que el cumplimiento legal difiera entre las jurisdicciones estatales, federales y globales. También hay consideraciones morales y éticas, sin mencionar el sentimiento del consumidor, que influirá en gran medida en cada líder y organización.En este entorno, es difícil anticipar hacia dónde se dirige el disco. Lo que está claro, según el sondeo de KPMG, es qué pueden hacer las organizaciones para prepararse para el éxito, sin importar cómo cambien las regulaciones o dónde aterricen. Eso incluye: evaluación del riesgo empresarial, incluida la discriminación y la equidad, así como la recopilación, protección y propiedad de datos; mejorar la comprensión de la IA en toda la empresa, incluidos los beneficios, riesgos, limitaciones y limitaciones; determinar cómo se alinea con los valores organizacionales, con miras a implementar estrategias de gestión de riesgos en todo el ciclo de vida de la IA.

3.- Riesgos

Los riesgos potenciales de la regulación emergente de la IA también abarcan a toda la empresa y llegan a los escritorios de los responsables de los datos, la privacidad, la seguridad, la propiedad intelectual y más.

Para mitigar estas amenazas, las empresas deben evaluar de manera integral el propósito y la aplicación de la tecnología en toda la organización. Es más, los líderes deben prepararse para un entorno de cambio regulatorio continuo y sentirse cómodos operando en él.

Esto requiere tener una comprensión sólida de lo que buscan los reguladores, desde el diseño responsable hasta la validación efectiva, la gobernanza y los controles sólidos. Pero también significa reforzar la capacidad interna para monitorear los desarrollos en tiempo real y ajustar los modelos de negocios en consecuencia.

La guía

KPMG advierte que la adopción eficaz de la IA significa reinventar los enfoques tradicionales de gestión de riesgos y por eso creo un marco, de cuatro partes, que las organizaciones pueden utilizar como guía: Establecer gobernanza, identificar riesgos legales y de cumplimiento, comprender la estrategia y la hoja de ruta de la IA y supervizar el uso y las implementaciones.

Compartir