TMC Net, 23 de octubre de 2023

La IA generativa, caracterizada por su capacidad para crear contenidos, datos e incluso texto e imágenes similares a los humanos, sigue ganando protagonismo en diversos sectores. Aunque promete soluciones innovadoras, su vertiginoso crecimiento también conlleva una nueva serie de riesgos empresariales.

Estos riesgos abarcan la preocupación por el uso indebido de contenidos generados por IA para desinformar y estafar, los litigios de propiedad intelectual relacionados con obras generadas por IA y las implicaciones éticas de la toma de decisiones impulsada por IA. Lo preocupante es el retraso de las organizaciones en la concienciación sobre las amenazas de la IA generativa. Hace poco escribí un artículo sobre ello.

Un nuevo estudio, publicado por Riskonnectva unos pasos más allá y revela que sólo el 9% de las empresas dicen estar preparadas para gestionar los riesgos asociados al uso de la IA generativa dentro de la empresa, y sólo el 17% de los líderes de riesgo y cumplimiento han formado o informado formalmente a sus organizaciones sobre los riesgos del uso de la IA generativa.

En primera línea, los problemas de privacidad de datos y ciberseguridad son considerables, con un 65% de empresas que expresan su preocupación por la salvaguarda de la información sensible y las posibles ciberamenazas. Además, el riesgo de que los empleados tomen decisiones basadas en información inexacta generada por la IA es un temor importante, que afecta al 60% de las organizaciones, lo que pone de relieve la necesidad crítica de garantizar la exactitud de los datos y la formación de los empleados.

Las preocupaciones éticas asociadas al mal uso de la IA por parte de los empleados y las implicaciones éticas más amplias de las tecnologías de IA afectan al 55% de las empresas, lo que hace necesario el establecimiento de directrices éticas sólidas. El uso poco ético de la IA puede implicar la manipulación de contenidos generados por la IA con fines fraudulentos o malintencionados, como la generación de reseñas falsas, vídeos deepfake o desinformación, que pueden socavar la confianza y la credibilidad.

Garantizar el uso ético de la IA requiere una sólida formación de los empleados y el establecimiento de directrices claras para evitar el uso indebido, al tiempo que se defienden los principios de imparcialidad, transparencia y responsabilidad.

El estudio también reveló que la preparación de las empresas en la gestión del riesgo deja mucho que desear, ya que el 63% no simula sus peores escenarios. Esto es indicativo de una laguna en la anticipación y mitigación de los acontecimientos de riesgo imprevisibles. Sólo el 5% de las organizaciones se sienten adecuadamente preparadas para evaluar, gestionar y recuperarse de acontecimientos de riesgo impredecibles, lo que subraya la necesidad de estrategias integrales de gestión de riesgos.

Lee el artículo completo en TMC Net.>>