Lectura 4:00 min
Sin miedo y con ética, la base para regular el uso de la IA el trabajo
Cada industria y empresa delineará sus reglas para incorporar la inteligencia artificial basadas en uso responsable y transparente de estas herramientas, sugieren especialistas.
El uso responsable y para acelerar procesos, serán clave en las reglas que delinee cada empresa para regular la inteligencia artificial en el trabajo.
Las reglas para el uso de la inteligencia artificial (IA) en el trabajo comenzarán a escribirse este 2026, luego que los colaboradores incorporaron esta herramienta más por iniciativa propia que por una política de sus organizaciones.
Un 37% de los profesionistas en México reconoció que en 2025 incorporó herramientas de IA como ChatGPT, Copilot o Midjourney, un alza desde el 26% que las usaron en 2024, de acuerdo con el estudio Talent Trends de PageGroup.
Te puede interesar
“Los trabajadores por sí solos ya lo usan. Entonces la organización la tiene que implementar dentro de sus procesos y también desarrollar políticas de utilización”, sugiere Alejandro Navarro Borja, director general de la Asociación de Recursos Humanos de Occidente (ARIOAC).
Más allá de un control, la IA plantea la necesidad de un plan de gobernanza en su uso dentro de las empresas.
“No podemos usar todo a diestra y siniestra y poner en riesgo la información de nuestra gente y la organización. Gobernanza es poner ciertas reglas y guías para el uso de la IA”, advierte Luis Mercado, presidente del Consejo Directivo de la Asociación de Ejecutivos de la Gestión del Talento Humano (ERIAC).
La velocidad con que avanza y se incorpora la inteligencia artificial demandará de la gestión de talento perder el miedo y dejar claro que es una herramienta para hacer más ágil el trabajo.
Reglas básicas para usar la IA
Cada industria y empresa tendrá el reto de delinear sus propias reglas conforme a sus necesidades, pero algunos lineamientos básicos, de acuerdo con los especialistas, son los siguientes:
Perder el miedo
Un primer paso es perderle el miedo tanto a nivel individual como de organización. “Lo que hay que hacer primero es no satanizar la IA. Es una herramienta maravillosa”, sugiere Alejandra Toscano, directora de DNE Consulting.
La llegada de la inteligencia artificial ha generado un fenómeno en el entorno laboral conocido como IA-nxiety, un tipo de ansiedad alimentada por el temor de que esta herramienta desplace a los humanos.
Los trabajadores experimentan preocupaciones sobre cómo la IA afectará su carrera profesional, su privacidad y seguridad, de acuerdo con un informe de la Organización de las Naciones Unidas (ONU).
Cuidar los datos compartidos con la IA
Otro aspecto a considerar es el cuidado de la seguridad tanto de la empresa como de los empleados. De ahí que las organizaciones tendrán que regular el uso de sus datos en herramientas de IA.
“Tenemos que cuidar la privacidad de la información y desarrollar nuevas capacidades a nuestros empleados y líderes para podernos educar sobre qué herramientas sí podemos usar y cómo usarlas”, comenta Luis Mercado.
Los trabajadores deberán saber cómo realizar consultas adecuadas a la IA, identificar sesgos y evitar compartir información de la empresa públicamente. También deben controlar el plagio, de acuerdo con Mercer en su artículo Tres maneras en las empresas pueden mitigar el riesgo de la IA en el lugar de trabajo.
Usar la IA para agilizar procesos, no para el resultado final
Otro aspecto a regular en el uso de la IA es inculcar en los colaboradores un uso ético de la herramienta y no cometer plagios.
Se trata de utilizar la IA para eficientar procesos no para generar resultados, estos son el quehacer y responsabilidad de los trabajadores.
“Los colaboradores deben de ver en la inteligencia artificial una herramienta, pero no una solución. El problema es que le están dando uso para dar un resultado final”, expone Toscano.
El compromiso de formación continua en el uso de herramientas de IA es otra de las bases de cualquier reglamento interno.
De acuerdo con una encuesta de Mercer, 95% de respondieron que deberán mejorar sus habilidades en los próximos cinco años por la irrupción de la IA.
Más de la mitad consideró que la capacitación de la empresa sobre IA generativa era inadecuada.
Transparencia y comunicación clara sobre cómo la IA afectará el trabajo, los quehaceres que sustituirá y las tareas que transformará.
“Enfocarse en la transparencia, las empresas pueden ayudar a garantizar que esta tecnología resulte en más productividad y menos daño”, de acuerdo con Mercer.