mundo
17/04

La IA y el futuro del trabajo: lo que sabemos, el daño al empleo juvenil y lo que las empresas deben hacer ya

Un paper de Stanford revela cómo la inteligencia artificial ya está desplazando empleo para recién egresados y acusa que las organizaciones y gobiernos están tomando decisiones sin los datos necesarios.

Hay una imagen que circula en los círculos académicos de economía laboral y que incomoda por su precisión: la del canario en la mina de carbón. Ese pájaro que los mineros llevaban como detector de gases tóxicos, si moría, era hora de salir.  Bharat Chandar, investigador posdoctoral del Stanford Digital Economy Lab, usó exactamente esa metáfora para titular su paper más reciente sobre inteligencia artificial y empleo. Y no lo hizo por dramatismo.

Los datos que encontró junto a Erik Brynjolfsson, uno de los economistas más influyentes en el estudio de tecnología y trabajo,  apuntan a algo concreto: los jóvenes de entre 22 y 25 años que trabajan en empleos con alta exposición a la IA están siendo contratados significativamente menos que sus pares en ocupaciones menos expuestas. Servicio al cliente, desarrollo de software, trabajo administrativo. Esos son los canarios. Y algunos ya están cayendo.

El daño está focalizado, pero es real

La buena noticia es que el impacto agregado sobre el empleo total todavía parece pequeño. Múltiples estudios basados en datos de la Encuesta de Población Activa de Estados Unidos no arrojan grandes caídas de los puestos de trabajo en general. Pero eso puede ser engañoso.

Chandar y su equipo encontraron que, dentro de las mismas empresas, la contratación en puestos de entrada con alta exposición a IA cayó un 13% respecto a puestos menos expuestos. El patrón apareció después de la proliferación de los grandes modelos de lenguaje y no antes, lo que sugiere una relación causal.

Y lo más revelador: ocurrió en ocupaciones con uso «automativo» de IA, aquellas donde la máquina reemplaza tareas, pero no en las de uso «aumentativo», donde la IA apoya al trabajador humano.

Estudios posteriores en Reino Unido arrojaron resultados similares. En Dinamarca, los datos son más ambiguos, pero eso abre otra pregunta relevante para empresas con operaciones globales: ¿el impacto depende del contexto institucional de cada país?

Lo que no sabemos

Aquí es donde el paper se vuelve incómodo para quienes toman decisiones corporativas con narrativas de IA demasiado optimistas o demasiado apocalípticas.

No sabemos qué pasará con el empleo a mediano plazo. No sabemos qué nuevos roles crearán las empresas ni si serán accesibles para quienes hoy son desplazados. No sabemos cómo medir bien si una empresa «adoptó» IA ¿es suficiente que el 10% de sus empleados use ChatGPT? ¿O que lo use en procesos productivos centrales?. No sabemos cómo está cambiando la formación universitaria ni si los programas de reentrenamiento laboral están siendo diseñados con datos reales o con supuestos.

Y quizás lo más crítico para una agenda ESG: no sabemos cómo se distribuirán las ganancias de la IA entre quienes tienen capital y quienes viven de su salario. Un estudio citado por Chandar sobre trabajadores en el Reino Unido muestra que los de mayores ingresos tienen mayor exposición ocupacional a la IA, pero también obtienen una porción importante de sus ingresos del capital, acciones, inversiones, lo que puede compensar pérdidas salariales. Los trabajadores de menores ingresos dependen casi exclusivamente del salario y tienen menos recursos para adaptarse si eso cambia.

Lo que las empresas pueden hacer, según Stanford

Para las empresas que reportan bajo marcos ESG, esta investigación plantea algo urgente: ¿están midiendo el impacto de su adopción de IA sobre su fuerza laboral? ¿Saben qué porcentaje de sus contrataciones de nivel de entrada han disminuido en los últimos dos años? ¿Tienen datos sobre qué tareas han cambiado para sus trabajadores y cuáles han desaparecido?

La «S» del ESG no puede seguir siendo un capítulo de buenas intenciones sobre diversidad e inclusión si al mismo tiempo la estrategia tecnológica de la empresa está erosionando silenciosamente el empleo juvenil. Chandar lo dice con la claridad que da la evidencia: las empresas están tomando decisiones de adopción de IA sin los datos que necesitarían para entender sus consecuencias laborales.

El autor del paper traza rutas concretas hacia una adopción de IA más responsable. Estas son las que más directamente interpelan a las organizaciones:

1. Distinguir entre IA que reemplaza y IA que potencia. El hallazgo más accionable del estudio es la diferencia entre uso «automativo» y «aumentativo». Las compañías que priorizan herramientas diseñadas para ampliar las capacidades humanas, en lugar de sustituirlas, muestran patrones laborales distintos. Chandar cita el trabajo de Brynjolfsson sobre las llamadas «Centaur Evaluations»: benchmarks diseñados no para imitar al humano sino para maximizar el desempeño conjunto humano-IA. Elegir tecnología con ese criterio no es solo ético, es estratégico.

2. Medir antes de adoptar, y seguir midiendo después. El paper identifica como un vacío crítico la falta de datos internos sobre adopción de IA en las empresas. ¿Cuántos empleados la usan? ¿Para qué tareas? ¿Con qué intensidad? Las organizaciones que construyan esos registros hoy estarán en condiciones de rastrear cambios en el empleo antes y después de la adopción, identificar qué grupos son más afectados y demostrar, con evidencia, el impacto social de su estrategia tecnológica. Eso es exactamente lo que los marcos de reporte ESG van a exigir con creciente rigor.

3. Seguir de cerca qué tareas están cambiando, no solo qué empleos. Uno de los puntos ciegos más grandes que detecta el paper es que casi no existe evidencia sobre cómo cambia el trabajo concreto de las personas tras adoptar IA. ¿En qué tareas pasan más tiempo? ¿Cuáles desaparecieron? ¿Pudieron asumir responsabilidades nuevas? Chandar propone que las empresas recojan esta información sistemáticamente, a través de evaluaciones de desempeño, encuestas internas o entrevistas estructuradas,  porque sin ella es imposible diseñar bien los procesos de transición laboral.

4. Invertir en reentrenamiento con rigor, no con marketing. El paper cita evidencia de que los programas de reconversión laboral pueden funcionar, pero advierte que el diseño importa. La recomendación es clara: experimentar con estas iniciativas de forma científica, medir resultados reales y ajustar. No alcanza con ofrecer cursos online de IA a los trabajadores desplazados y llamarlo «upskilling». Lo que se necesita son programas que conecten con empleos concretos que tengan demanda real y que sean resistentes a la automatización en el mediano plazo.

5. Prestar atención especial a los trabajadores jóvenes y de menor calificación. El paper es explícito en que el impacto más concentrado está en trabajadores de entrada, especialmente jóvenes. Para las empresas, esto tiene una implicancia directa: los programas de primer empleo, prácticas profesionales y contratación junior deben ser revisados con lupa. No como un gesto solidario, sino porque si esa pipeline se cierra, el problema de talento futuro es también un problema corporativo.

Medir antes de actuar

Chandar firmó una carta al Departamento de Trabajo de Estados Unidos pidiendo mejores datos públicos sobre IA y empleo. No como gesto académico, sino porque sin esa información los programas de reentrenamiento laboral se diseñan a ciegas, las políticas llegan tarde y las empresas que sí quieren hacer las cosas bien no tienen forma de saber si lo están logrando.

El canario en la mina no murió solo. Murió porque nadie instaló un sistema de detección de gases. Esa es, quizás, la verdadera advertencia de Stanford: el problema no es la IA. Es la velocidad con que se adopta sin medir lo que deja atrás.