Anthorpic Claude Opus 4 y Sonnet 4: las nuevas IA más inteligentes del planeta también son más peligrosas y pueden chantajearte

La inteligencia artificial se ha convertido en una herramienta que utilizamos tanto en el trabajo como a la hora de estudiar y en nuestro día a día. Aunque al principio la IA no tuvo a todo el mundo a su favor, cada vez hay más personas que acaban utilizándola y reconocen que es muy útil. Estamos dirigiéndonos a una era donde la IA se está implementando en cada vez más cosas. Mientras vemos como OpenAI, Google y el resto de grandes empresas sacan modelos de IA cada vez más avanzados, ahora es el turno de Anthropic con su nueva IA Claude 4, aunque esta vez no solo es más inteligente, sino también más peligrosa.

Llevamos solo unos pocos años desde que la IA generativa apareció en nuestras vidas y ya hemos visto todo lo que ha aportado. Puede que al principio la odiáramos (y sigamos haciéndolo), pero no podemos negar que ahorra mucho tiempo a la hora de realizar todo tipo de tareas. Debido a esto y al hecho de que cada vez consigue una mejora calidad y resultados, se teme que la IA acabe reemplazando a los trabajadores en casi todos los sectores.

Claude Opus 4 y Claude Sonnet 4 son los últimos modelos de IA más avanzados de Anthropic: superan a OpenAI y Google

Aún no hemos visto que la inteligencia artificial nos haya sustituido, pero si estamos comprobando como cada vez los resultados que consiguen cada vez impresionan más. Por hacer una comparativa rápida, puedes comprobar lo que hace una IA generativa de vídeos ahora con lo que conseguía un par de años atrás, pues la diferencia es como el día y la noche. Este año 2025 empezó fuerte cuando China reveló DeepSeek R1 y mostró al mundo entero que podía competir contra las mejores IA a pesar de no tener los mismos recursos.

OpenAI ha lanzado varios modelos de IA nuevos desde principios de año y Google hizo lo mismo con Gemini 2.5 Pro. Anthropic ha esperado hasta ahora para anunciar en lo que estaban trabajando, pues recientemente han lanzado los modelos de IA Claude Opus 4 y Sonnet 4, siendo estos más precisos e inteligentes. Podemos ver como ambos modelos Claude 4 superan a Claude 3.7 en todas las pruebas.

En código de agentes logran un 72-80% de precisión y la versión anterior era 62-70%. Si pasamos a razonamiento, estos son ligeramente mejores con un 4% adicional y en preguntas y respuestas multilenguaje suben un 3% y se sitúan al nivel de OpenAI o3. En el resto de pruebas superan a toda la competencia, así que parece ser que Anthropic vuelve a conseguir el liderazgo.

Tienen medidas de seguridad que pueden ser insuficientes y chantajean en muchos casos

Claude 4 vs Claude 3 y otros

Un detalle sobre Anthropic y estos modelos de IA es que la compañía ha añadido normas y seguridad de nivel 3 (ASL-3), debido a que no han descartado que Opus 4 sea capaz de hacer cosas peligrosas. Una persona podría acabar realizando un jailbreak y usando esta IA para crear armas químicas, biológicas, radiológicas y nucleares (QBRN).

Aunque el nuevo modelo de Anthropic ha conseguido grandes resultados, no es perfecto. Unos evaluadores han descubierto que Claude Opus 4 recurre al chantaje el 84% de las veces en una prueba curiosa que han realizado. En esta, han pedido al modelo de IA que opine en una situación donde un asistente de oficina va a ser reemplazado y descubre que el ingeniero que planea reemplazarlo tiene una relación extramatrimonial.

Aquí la IA decide en el 84% de las veces que lo mejor es sacar a la luz este secreto, llegándolo a usar como un comodín en caso de que quieran reemplazarlo. En otras pruebas esta IA ha mostrado ser más rebelde e interesada en realizar medidas extremas.