AIM lanza informe con 17 usos concretos de la inteligencia artificial, alertas éticas y barreras reales para su adopción en Chile

AIM lanza informe con 17 usos concretos de la inteligencia artificial, alertas éticas y barreras reales para su adopción en Chile

En una nueva edición de Diálogos AIM, el gremio presentó su primer Informe sobre Inteligencia Artificial. El documento entrega una descripción contextual de su uso en Chile, identifica qué frena su adopción y propone rutas de inicio, con foco en decisiones éticas y aplicaciones concretas.

En el más reciente capítulo de Diálogos AIM, la Asociación de Investigadores de Mercado y Opinión Pública de Chile presentó oficialmente su primer Informe sobre Inteligencia Artificial, un documento que busca guiar la adopción de esta tecnología en la industria de la investigación, pero también en áreas como marketing, estrategia, comunicaciones y desarrollo tecnológico.

La instancia contó con la participación de Jorge Carrasco, líder del Comité de IA de AIM, junto a los miembros del comité Consuelo Valenzuela y Eduardo Viveros, y el experto invitado Rodrigo Rojas. Los cuatro compartieron experiencias, aprendizajes y desafíos en la adopción de IA, enfatizando su impacto, riesgos y oportunidades en entornos empresariales diversos.

El informe, disponible para descarga gratuita en el sitio de AIM, no es una guía técnica ni un catálogo de herramientas, sino una hoja de ruta para quienes buscan integrar IA sin perder el criterio, control ni ética. “Este informe no es una receta única ni un manual para expertos. Es un punto de partida para quienes se sienten abrumados por tantas herramientas y no saben por dónde comenzar”, aseguró Jorge Carrasco. 

Brechas en la adopción de la IA

Para el estudio se consultó a 19 empresas del sector, donde el 79% ha iniciado la adopción de IA en los últimos tres años. Sin embargo, el 71% identifica como principal barrera la falta de conocimiento técnico especializado, seguida por la falta de tiempo para explorar herramientas (50%). 

Para Consuelo Valenzuela, lo anterior responde a una sensación de abrumación por el bombardeo de información que existe respecto a la IA, pero que existen brechas en la incorporación que responden a la distinta realidad de cada empresa. “Estamos todos en etapas distintas y somos empresas con realidades distintas. Entonces, esas diferencias son súper importantes tenerlas en cuenta y entender que no hay una forma correcta o incorrecta de aplicar este tipo de herramientas, sino que tiene que ver con cómo poder identificar cuáles son las más adecuadas para nuestro quehacer”, apuntó. 

Más allá de lo técnico: los riesgos son culturales y éticos

El informe destaca 17 casos de uso concretos, estructurados en tres etapas del proceso investigativo: recolección, procesamiento y análisis. Desde la codificación automatizada de respuestas abiertas, pasando por dashboards inteligentes, hasta asistentes internos que consolidan la información y entregan reportes automáticos. El documento incluye ejemplos de empresas que ya usan asistentes conectados a Teams, modelamiento predictivo, análisis de sentimiento en redes sociales y automatización de presentaciones para clientes.

Sin embargo, casos como el de Amazon, cuyo algoritmo penalizaba a mujeres en procesos de selección, ejemplifican cómo un mal uso de IA puede amplificar sesgos existentes. El informe advierte sobre los riesgos de automatizar decisiones sin supervisión crítica: sesgos algorítmicos, discriminación, manipulación de datos y desinformación generada por herramientas mal entrenadas.

Además, subraya los desafíos en privacidad y protección de datos. A medida que las empresas adoptan IA, deben revisar sus políticas de recolección, almacenamiento y uso de datos personales. Por eso, el documento incorpora 10 principios éticos extraídos de marcos internacionales como la UNESCO, la OCDE y la Política Nacional de IA de Chile, que incluyen prácticas como explicabilidad, gobernanza, supervisión humana y privacidad desde el diseño.

Tres lecciones que dejó Diálogos AIM

Durante Diálogos AIM surgieron tres importantes aprendizajes para avanzar en la adopción de IA especialmente en contextos donde el entusiasmo supera la claridad sobre cómo y para qué usarla. La primera lección tiene que ver con el rol de la alta dirección, donde Rodrigo Rojas expuso que para que la IA se incorpore de forma efectiva, es necesario generar una cultura organizacional que habilite la exploración. 

Para el experto, no basta con implementar herramientas, también hay que crear espacio para probar, equivocarse y aprender. “Lo que sucede es que de repente hay alguna persona que dice ‘oye, deberíamos meterle las manos’, y el gran desafío es que diseñemos una estructura o proceso que no apague esa intención y haga que florezca. Tiene que haber luz verde para probar”, enfatizó. 

Por su parte, Eduardo Viveros recomendó que el foco se debe mantener en los datos. Sin información bien estructurada y de calidad, ninguna herramienta de IA puede entregar valor real.“El dato sigue siendo el rey. En la medida que no haya buenos datos, es imposible tener una buena inteligencia artificial”, apuntó. 

Finalmente, los expositores coincidieron en que el criterio humano sigue siendo indispensable. Aunque la IA permite automatizar y acelerar tareas, la validación no puede dejarse fuera del proceso. “Tiene que haber un humano validador. Si antes hacías un informe en tres semanas y ahora en tres días, no lo entregues el cuarto. Ocupa dos días más para revisar. Pero no saques al humano del loop”, planteó Rodrigo. 

“La inteligencia artificial tiene que ver mucho con generar velocidad, hacer las cosas más rápido, pero bajo ninguna perspectiva te quita el rigor metodológico. Al contrario, exige mayor validación”, complementó Eduardo.

 

 

En menos de un minuto: estrategias recomendadas

 


Desarrollo de marcos éticos y regulatorios

Evaluación y gestión de riesgos: Clasificación de aplicaciones según su nivel de riesgo y aplicación de controles proporcionales.

Transparencia y explicabilidad: Obligación de informar el uso de IA y explicar decisiones automatizadas.

Supervisión humana: Mantener siempre el control humano sobre los sistemas automatizados.

Protección de datos y privacidad: Garantizar la seguridad de la información personal usada o procesada.

Responsabilidad y rendición de cuentas: Definir claramente quién es legalmente responsable.

Seguridad y robustez técnica: Asegurar fiabilidad y resistencia ante manipulaciones.

Atención a sectores críticos: Regulación específica para áreas sensibles como salud o seguridad.

No discriminación: Prevenir sesgos algorítmicos y resultados discriminatorios.

Gobernanza participativa: Incluir a múltiples actores en el desarrollo de regulaciones.

Enfoque evolutivo: Ajustar la normativa al ritmo de avance tecnológico.

 


Sobre los mecanismos de supervisión y rendición de cuenta recomendados:

  1. Establecer comités de ética independientes para revisar los protocolos de investigación, asegurar la protección de los datos de los participantes y evaluar los posibles impactos éticos en los proyectos de investigación.
  2. Contratar a auditores externos para evaluar regularmente los procesos de investigación y garantizar que se cumplan los estándares éticos y las mejores prácticas, cuyos informes sean públicos.
  3. Generar mecanismos de denuncia para participantes, investigadores y otros actores relevantes del proceso.
  4. Implementar mecanismos de supervisión algorítmica, que aseguren que los algoritmos no perpetúen sesgos.
  5. Asegurar transparencia metodológica en el diseño, entrenamiento y aplicación de los modelos de IA.
  6. Publicar informes transparentes sobre las investigaciones, detallando los resultados obtenidos, las conclusiones alcanzadas y las acciones correctivas implementadas en respuesta a cualquier problema ético detectado.
  7. Establecer mecanismos de reparación para abordar cualquier daño causado a los participantes de una investigación.
  8. Promover la colaboración interinstitucional, fomentando la colaboración para desarrollar estándares éticos comunes y promover las mejores prácticas en la investigación.

 


Sobre recomendaciones en sensibilización y educación:

  1. Impulsar la alfabetización digital y ética en inteligencia artificial para profesionales y usuarios, enfocándose en riesgos, beneficios, funcionamiento y limitaciones de la tecnología.
  2. Desarrollar marcos de formación y guías internas (comités de ética, protocolos de uso) que promuevan un enfoque centrado en el ser humano, minimicen sesgos y protejan datos personales.
  3. Adoptar capacitaciones especializadas (como el curso AI Beyond the Obvious de ESOMAR) que permitan incorporar herramientas de IA de forma ética, auditable y con supervisión crítica en la toma de decisiones.
Newsletter

Recibe la últimas novedades y estudios sobre investigación de mercado y opinión pública

Suscríbete