¿Las empresas colombianas están preparadas para los riesgos de la IA? | Latinpyme
Slide de Texto

¿Las empresas colombianas están preparadas para los riesgos de la IA?

La inteligencia artificial (IA) está revolucionando la tecnología. Cada vez se desarrolla y adapta más rápidamente para responder a las necesidades de diferentes ámbitos a nivel global.
Con la idea de tener un mayor impacto económico y social, además de estar a la vanguardia del mercado, varias organizaciones en el mundo han optado por incorporar y adecuar la IA a
sus necesidades. Colombia, en este caso, no se queda atrás. Según el informe realizado por PwC Colombia, titulado Inteligencia artificial responsable: madurando de la teoría a la práctica,
en el que aplicó una encuesta a diferentes organizaciones en el país, se evidenció que el 55 % de estas organizaciones usan la IA en sus negocios.

Esta tecnología se ha convertido en una herramienta que apoya a empresas de diferentes sectores a impulsar la productividad, el análisis de datos y la toma de decisiones, pero así
como puede generar beneficios, también trae consigo riesgos que se pueden materializar en aspectos relacionados con su aplicación (rendimiento, control y seguridad) y a nivel
empresarial, social y económico.

De acuerdo con lo anterior, estos riesgos varían según la industria en la que la IA se utilice. Así lo resalta Mauricio Arias, socio de Consultoría en Tecnología de PwC Colombia, quien afirma
que: “es claro que los riesgos de la IA dependen de su contexto de aplicación, ya sea por el tipo de datos que se van a usar, las técnicas o el tipo de decisiones que se toman para su
ejecución, lo importante aquí es ser conscientes de que estos riesgos hay que evaluarlos, monitorearlos y mitigarlos”.

Más que solo desarrollar con rapidez la IA, también deben tenerse en cuenta las diferentes consecuencias que puede traer, pero ¿esto es algo que consideran las empresas en el país?
Según el informe, el 22 % de las organizaciones encuestadas prefiere enfocarse en innovar con rapidez, antes que hacer una aproximación más rigurosa que cubra los riesgos asociados,
mientras que el 78 % busca un balance entre la innovación y la gestión de los riesgos.

¿Por qué se hace relevante hablar de una IA responsable?

Con el avance y constante adaptación de la IA, se ha identificado que uno de los riesgos en su uso no controlado ha sido la creación de textos, imágenes y videos con contenido falso, así
como el aprovechar la tecnología para lograr estafas y robos, entre otros riesgos, en diferentes niveles que no permiten distinguir lo real de lo que no lo es.

A esta preocupación se suman personajes reconocidos de la industria, como uno de los pioneros de la IA, Geoffrey Hinton, quien advierte los peligros de esta tecnología, o líderes
tecnológicos que piden que se dé una pausa a su desarrollo, como Steve Wozniak y Elon Musk, debido al peligro que podría suponer para la sociedad. Aún así, esto no ha detenido la
idea de seguir avanzando en el desarrollo de esta tecnología. Por ello, se hace relevante pensar en su desarrollo de una forma responsable.

Ahora bien, cabe resaltar que las preocupaciones no solo se centran en una idea social de que la tecnología vaya a “dominar” al ser humano o incluso a reemplazarlo, sino también se
extienden a la consideración del riesgo de que se puedan filtrar o perder datos sensibles, ya que esta tecnología necesita acceso a la información para poder automatizar sus funciones y
hacer el trabajo para el que está programada. Es aquí cuando entran las organizaciones a demostrar qué tan preparadas están para manejar y proteger los datos.

Para tal fin, se hace pertinente pensar en un sector específico que pueda identificar riesgos emergentes, además de los incidentes en desarrollo y despliegue, como lo menciona Mauricio
Arias: “es recomendable contar con un gobierno corporativo, que se encargue de supervisar funciones, responsabilidades y requisitos, y proporcione trazabilidad y evaluación continua, que
le permita a la organización anticiparse a futuros requerimientos.

Esto también generará confianza en su desarrollo e implementación, de ahí, que pensemos en una IA responsable, en la que primero verifiquemos que los beneficios que resultan del desarrollo de esta tecnología supere los posibles impactos que puedan generar en la sociedad. Para ser efectivos y confiables, los sistemas de IA necesitan ser resilientes y seguros”.

En pocas palabras, la idea de implementar la IA responsable se basa en desarrollar la tecnología de forma transparente y ética, teniendo presente el bien común, las necesidades del
negocio y la seguridad de la información, que permita mantener la confianza tanto para los empleados como para los clientes.

Etiquetas

Compartir esta publicacion:

Scroll al inicio

Categorías

Eventos

Nosotros