Offline
IA, inclusión y la arquitectura de la responsabilidad institucional
Por: Erick Lasso, Gerente General de KLASS ASESORES @klassasesores
Publicado en 20/03/2026 09:00
Erick Lasso

La inteligencia artificial ha dejado de ser una herramienta periférica, hoy opera como un filtro estructural que condiciona cómo las instituciones interpretan la voz humana, evalúan el talento y definen la participación, introduciendo una nueva dimensión en la inclusión que ya no depende únicamente de políticas organizacionales o buenas intenciones, sino de los sistemas que median cómo las personas son vistas e integradas.

En su mayor potencial, la IA amplía el acceso de formas que las instituciones históricamente no han logrado, reduce barreras lingüísticas y cognitivas, y genera nuevas formas de autonomía para quienes estuvieron subrepresentados. Redistribuye visibilidad en espacios donde se toman decisiones y se asignan oportunidades, especialmente cuando la comunicación ha sido el principal obstáculo.

Sin embargo, este mecanismo carga una contradicción inherente; los sistemas de IA se entrenan con datos históricos, los patrones de exclusión y sesgo quedan incorporados en la lógica que alimenta estas herramientas. El resultado es una exclusión más refinada y difícil de cuestionar, puesto que, las decisiones dependen excesivamente de resultados automatizados, esto hace que los criterios de evaluación no se amplíen, en consecuencia, se estrechan. Lo que el sistema define como potencial o idoneidad puede ser, en realidad, un eco del pasado, de un algoritmo generado para una tarea específica que se cruza cuando requerimos de la IA una información, pero viene con un comando que no es propio de nuestro requerimiento.

Aquí es donde la gobernanza debe evolucionar. Integrar la IA en los sistemas organizacionales exige más que supervisión técnica, requiere diseño institucional deliberado que garantice la alineación entre tecnología e intención humana. Sin esa capa, la eficiencia supera al juicio y la optimización desplaza al pensamiento crítico.

Existe además una consideración que va más allá de los procesos. A medida que las organizaciones avanzan hacia formas más sofisticadas de automatización, incluidos intentos de replicar la empatía, se arriesgan a erosionar una capacidad humana esencial. La empatía es una responsabilidad que se ejerce, delegarla a una máquina no la simula al programarla, la sustituye con condescendencia y valores fabricados, ausente de criterio.

La inclusión, por tanto, no puede externalizarse, debe estar integrada en la arquitectura institucional, en los marcos de gobernanza, las estructuras y los procesos de decisión. La IA puede ampliar el acceso, pero no debería definir el criterio de los valores que orientan la participación, eso es responsabilidad del liderazgo.

El verdadero reto dejó de ser técnico,  es de diseño institucional. Las organizaciones que integren la IA con disciplina, con supervisión consistente y criterios explícitos, serán las que logren que la tecnología sirva al juicio humano, y no al revés.

Erick Lasso

Ingeniero en Administración de Empresas y Máster en Gestión Estratégica y Alta Dirección

Gerente General de KLASS ASESORES - @klassasesores

Columnista www.vibramanabi.com

20/3/2026

 

 

Comentarios
¡Comentario enviado exitosamente!

Chat Online