🎁 ¡Nuevos cupones AliExpress! Códigoshasta 70€ válidos del 17/3 al 26/3 🎁
En una decisión que ha sorprendido a la comunidad tecnológica, Anthropic, la empresa responsable de uno de los asistentes de escritura con IA más populares del mundo, ha impuesto una política clara a los aspirantes a trabajar con ellos: no utilizar herramientas de inteligencia artificial para redactar sus solicitudes de empleo.
Pese a fomentar el uso de IA en el entorno laboral para mejorar la productividad, Anthropic exige que las candidaturas se redacten sin ningún tipo de asistencia automatizada.
Así lo aclara en el formulario de aplicación:
Aunque animamos al uso de sistemas de IA durante el desempeño del rol, por favor no utilices asistentes de IA durante el proceso de solicitud. Queremos conocer tu interés personal en Anthropic sin la mediación de un sistema de inteligencia artificial, y también evaluar tu capacidad de comunicación sin asistencia.
Los candidatos deben marcar “Sí” para confirmar que han leído y aceptado esta política antes de enviar su candidatura.
Anthropic lanzó Claude en 2023, un asistente de IA especialmente eficiente en redacción conversacional, capaz de generar textos tan naturales que son prácticamente indistinguibles de los escritos por humanos. Es precisamente esta capacidad la que ha motivado la decisión de limitar su uso en el proceso de selección.
La advertencia aparece en casi 150 ofertas de empleo activas de la empresa, abarcando roles en ingeniería, finanzas, ventas, comunicación y más. Sin embargo, se han identificado excepciones en algunas posiciones técnicas específicas, como diseñador de producto móvil.
Este movimiento ha generado debate. La contradicción es evidente: una empresa que desarrolla herramientas de IA avanzadas limita su uso precisamente en el área en la que se especializa. La realidad es que el propio desarrollo de estas herramientas está impactando el mercado laboral, desplazando roles en comunicación, programación y análisis de datos.
El objetivo de Anthropic es claro: valorar las habilidades humanas sin asistencia algorítmica, en un contexto donde muchos candidatos ya dependen en exceso de la inteligencia artificial para expresarse, investigar o tomar decisiones.
La empresa también ha estado en el centro de otra polémica: su sistema de scraping, utilizado para alimentar sus modelos con contenido generado por humanos, ignoró intencionadamente las restricciones de muchos sitios web, accediendo a ellos millones de veces al día a pesar de las indicaciones explícitas de no ser indexados.
Este doble estándar genera preguntas sobre la ética del uso de contenidos creados por terceros mientras se restringe el uso de IA a los propios candidatos humanos.