- Un plugin llamado "Humanizer" instruye a la IA Claude para que evite patrones de escritura artificial.
- Se basa en una lista de 24 indicadores de texto generado por IA recopilada por editores de Wikipedia.
- La herramienta busca que la IA suene más natural, aunque puede tener inconvenientes en la precisión y la capacidad de codificación.
Un emprendedor tecnológico ha lanzado un plugin de código abierto para el asistente de IA de Anthropic, Claude, diseñado para que el modelo deje de escribir como una inteligencia artificial. La herramienta, denominada "Humanizer", proporciona a Claude una lista de 24 patrones de lenguaje y formato que los editores de Wikipedia han identificado como distintivos de la escritura generada por chatbots. El plugin se ha compartido en GitHub, donde ha ganado una considerable popularidad. La idea surge de la iniciativa WikiProject AI Cleanup, un grupo de voluntarios de Wikipedia que desde finales de 2023 se dedica a identificar artículos generados por IA. Estos editores han recopilado y publicado una lista detallada de los patrones recurrentes en la escritura artificial, que ahora sirve de base para esta nueva herramienta.
El plugin "Humanizer": Un intento por humanizar la IA
El "Humanizer" funciona como un "skill file" para Claude Code, el asistente de codificación de Anthropic. Este archivo, formateado en Markdown, añade instrucciones específicas al prompt que se envía al modelo de lenguaje grande (LLM). A diferencia de un prompt de sistema convencional, la información del skill está estructurada de manera que los modelos de Claude la interpretan con mayor precisión. Si bien el uso de estas habilidades personalizadas requiere una suscripción de pago a Claude con la ejecución de código activada, la efectividad del plugin es la pregunta clave. Las pruebas preliminares sugieren que el "Humanizer" puede hacer que la salida de la IA suene menos precisa y más informal, adoptando un tono más casual. Sin embargo, esta aproximación puede presentar inconvenientes, ya que no necesariamente mejora la veracidad de la información y podría afectar negativamente la capacidad de codificación del asistente.
Consideraciones sobre el uso del "Humanizer"
Algunas de las directrices incluidas en el "Humanizer" podrían ser contraproducentes dependiendo de la tarea específica. Por ejemplo, una instrucción sugiere que la IA "tenga opiniones" y "reaccione a los hechos", en lugar de limitarse a presentarlos de forma neutral. Si bien esta cualidad puede parecer humana, podría no ser deseable al utilizar Claude para redactar documentación técnica, donde la precisión y la objetividad son primordiales. Resulta irónico que un conjunto de reglas creado para detectar escritura asistida por IA pueda, a su vez, ser utilizado para subvertir esa misma detección.
Identificando las "pistas" de la escritura artificial
La guía de Wikipedia detalla numerosos ejemplos de cómo se manifiesta la escritura generada por IA. Comúnmente, los chatbots utilizan frases grandilocuentes como "marcando un momento crucial" o "es un testimonio de", similar a un folleto turístico. También tienden a emplear construcciones con gerundio al final de las frases para aparentar un análisis más profundo, como "simbolizando el compromiso de la región con la innovación". El "Humanizer" busca contrarrestar estas tendencias instruyendo a Claude a reemplazar el lenguaje inflado por hechos directos. Por ejemplo, una frase como "El Instituto de Estadística de Cataluña fue establecido en 1989 para recopilar y publicar estadísticas regionales" es preferible a "El Instituto de Estadística de Cataluña fue oficialmente establecido en 1989, marcando un momento crucial en la evolución de las estadísticas regionales en España".
Limitaciones en la detección de IA
A pesar de la detallada lista de patrones elaborada por los editores de Wikipedia, la detección de contenido generado por IA sigue siendo un desafío. Los detectores de texto de IA no son infalibles, en parte porque no existe una característica intrínsecamente única en la escritura humana que la diferencie de la generada por LLM de manera fiable. Los modelos de IA pueden ser instruidos para evitar ciertos patrones, como demuestra el plugin "Humanizer", pero también hay que tener en cuenta que las propias IA pueden ser utilizadas para otros fines. Además, los humanos también pueden adoptar estilos de escritura que se asemejan a los de los chatbots. La propia guía de Wikipedia advierte que sus observaciones no son reglas inquebrantables. Un estudio de 2025 indicó que los usuarios frecuentes de LLM identifican artículos generados por IA con un 90% de acierto, pero un 10% de falsos positivos puede llevar a descartar contenido de calidad. Esto sugiere que la detección podría necesitar ir más allá del análisis de la fraseología y centrarse en el contenido sustantivo y factual de la obra. Para entender cómo la IA está impactando la tecnología, incluyendo el hardware, puedes leer sobre cómo la IA está afectando los precios de las GPUs de gama alta aquí. En cuanto a cómo las empresas están utilizando la IA, puedes ver cómo el CEO de Krafton admitió el uso de ChatGPT aquí, lo cual levanta serias preocupaciones.