Un socio de la consultora KPMG en Australia ha sido multado con 10.000 dólares australianos por hacer trampas usando inteligencia artificial en un curso interno sobre IA. El caso forma parte de más de dos docenas de empleados detectados desde julio utilizando herramientas de IA para superar exámenes internos que se suponía que medían sus propios conocimientos.
La historia mezcla dos fuerzas que chocan de frente en muchas empresas. Por un lado, las firmas piden a su personal que use IA para trabajar más rápido y más barato. Por otro, castigan cuando esas mismas herramientas se cuelan en pruebas y certificaciones internas donde la norma sigue siendo hacerlo por uno mismo.
Trampas con IA en los exámenes internos de KPMG
Según ha explicado KPMG Australia, la firma utilizó herramientas propias de detección para descubrir quién había recurrido a sistemas de IA generativa durante los exámenes internos de formación. Estos test están diseñados para comprobar conocimientos técnicos y criterios éticos, no la habilidad para copiar respuestas automáticas.
El socio multado es el caso más visible, aunque la empresa reconoce que ha identificado a más de dos docenas de empleados que también usaron IA de forma indebida en ese contexto. La sanción económica, de 10.000 dólares australianos, se presenta como un aviso serio a un colectivo que ocupa posiciones de alto nivel dentro de la firma.
No es la primera vez que la oficina australiana de KPMG se enfrenta a un escándalo de exámenes internos. En 2021, el regulador del país impuso una multa de 615.000 dólares australianos a la firma tras destapar un caso de intercambio indebido de respuestas en pruebas internas en el que participaron más de 1.100 socios.
Presión por usar IA y temor a nuevas trampas
La situación resulta llamativa en un momento en que KPMG y otras grandes consultoras de los llamados big four animan a su plantilla a usar IA para mejorar la productividad. La firma ha explicado que, de cara a las evaluaciones de desempeño de 2026, los socios serán valorados también por su capacidad para utilizar estas herramientas en su trabajo diario.
Niale Cleobury, responsable global de fuerza laboral de IA en KPMG, ha resumido esa filosofía con una idea clara al señalar que todos tienen la responsabilidad de llevar la IA a todo su trabajo. En la práctica, eso significa que los equipos deben aprender a apoyarse en asistentes automáticos para redactar informes, analizar datos o preparar presentaciones sin perder el control humano.
Ese empuje convive con un creciente miedo a que la IA distorsione procesos que dependen de la confianza, como los exámenes profesionales. La propia firma ha señalado que ha puesto en marcha medidas para detectar el uso indebido de estas herramientas y que seguirá registrando cuántos empleados las utilizan fuera de lo permitido.
Educación contable en alerta por la IA
La preocupación no se limita a una sola empresa. La Association of Chartered Certified Accountants, el mayor organismo de contabilidad del Reino Unido, anunció en diciembre que sus estudiantes deberán hacer los exámenes de forma presencial para reducir el riesgo de trampas con IA en las pruebas en línea.
Su directora ejecutiva, Helen Brand, describió el momento actual como un punto de inflexión, al considerar que el uso de herramientas de IA avanza más rápido que las salvaguardas contra las trampas que la asociación puede imponer. Para muchos jóvenes que estudian contabilidad, esto se traduce en un regreso a las aulas físicas justo cuando otras titulaciones se digitalizan.
Al mismo tiempo, surgen voces que piden repensar la propia formación. En LinkedIn, el emprendedor Iwo Szapar, creador de una plataforma que clasifica la madurez en IA de las organizaciones, apuntó que el uso de IA en un curso de IA refleja más un problema de cómo se diseña la formación que un simple problema de trampas. Su mensaje conecta con una duda que resonará en muchas oficinas que ya trabajan con estas herramientas a diario.
Lo que significa este caso para el futuro de la profesión
El director ejecutivo de KPMG Australia, Andrew Yates, ha reconocido que la firma está lidiando con la cuestión de cómo usar la IA en la formación y las pruebas internas. Ha explicado que es difícil controlarlo del todo cuando la sociedad en general ha adoptado estas herramientas de forma tan rápida.
Yates ha señalado que algunas personas incumplen la política interna sobre IA y que la empresa se lo toma en serio cuando eso ocurre. También ha indicado que el equipo directivo estudia cómo reforzar el sistema actual, basado en buena parte en que los propios empleados informen de posibles incumplimientos.
Para la profesión contable, el caso ilustra un equilibrio delicado. La IA promete automatizar tareas rutinarias y liberar tiempo para trabajos de más valor, pero puede erosionar la confianza si se usa para inflar credenciales o saltarse exámenes. Al final del día, lo que intenta hacer el sector es integrar la IA sin perder la base de cualquier firma de auditoría y consultoría la confianza de que quienes firman los informes saben realmente lo que hacen.










