Un nuevo paso en el camino de la IA: ha llegado la familia Claude-3

Hoy es uno de esos días en los que las noticias no paran de llegar, pero, en mi opinión, una de ellas destaca sobre las demás: no estamos hablando de una actualización incremental o un ajustes menores en modelos existentes; se trata de uno de esos saltos que pueden redefinir nuestras expectativas sobre la IA.
Los brillantes cerebros de Anthropic acaban de presentar su última creación: la familia Claude-3. Desgraciadamente, en Europa no estamos demasiado familiarizados con este conjunto de chatbots (debido a dificultades de adaptación al RGPD, solamente están disponibles aquí desde noviembre de 2023), pero es una de las plataformas más potentes a nivel mundial. Más incluso si, como yo, crees que el contexto es la característica más relevante de los modelos de lenguaje actuales.
Conoce a la familia Claude-3
Claude-3 es un conjunto de modelos de lenguaje de gran tamaño (LLMs), sucesores de las familias Claude-1 y Claude-2, creadas por Anthropic. Estos modelos están diseñados para comprender y generar texto similar al humano, lo que los hace perfectos para una amplia gama de aplicaciones, desde la creación de contenido hasta el servicio al cliente.
¿Qué es lo que hace que la familia Claude-3 sea tan especial? Dos características: por un lado, el tamaño de su contexto. Los miembros de la familia Claude-3 pueden absorber ingentes cantidades de datos y operar sobre ellos con una precisión sorprendente. Por otro, al menos en los benchmarks presentados por Anthropic, se presentan como competidores aventajados contra ChatGPT4 y Gemini 1.5 Ultra (aunque este aparece como vencedor en varias de las categorías). Esto implica que su capacidad para comprender y participar en el lenguaje resulta natural, intuitiva y sorprendentemente humana. Este nivel de sofisticación los pone a la cabeza de la competición en la que los grandes actores de la IA están tratando de posicionarse.
Característica | Claude 3 Haiku | Claude 3 Sonnet | Claude 3 Opus |
---|---|---|---|
Categoría de Inteligencia | El más rápido y compacto | Equilibrio entre inteligencia y velocidad | El más inteligente |
Costo (Entrada $/millón de tokens) | $0.25 | $3 | $15 |
Costo (Salida $/millón de tokens) | $1.25 | $15 | $75 |
Ventana de Contexto | 200K | 200K | 200K (1M para casos específicos) |
Velocidad | Casi instantáneo | 2 veces más rápido que Claude 2 | Similar a Claude 2 |
Capacidades Visuales | Sofisticadas | Sofisticadas | Sofisticadas |
Tasa de Rechazo | Menor que en modelos anteriores | Menor que en modelos anteriores | Menor que en modelos anteriores |
Precisión | Alta precisión | Alta precisión | Doble mejora comparada con Claude 2.1 |
Capacidades de Recuerdo | No especificado | No especificado | Casi perfecto |
Evaluación de Sesgos | Sesgos reducidos | Sesgos reducidos | Sesgos reducidos |
Nivel de Seguridad | Nivel de Seguridad en IA 2 | Nivel de Seguridad en IA 2 | Nivel de Seguridad en IA 2 |
Usos Potenciales | Interacciones con clientes, moderación de contenido, tareas de ahorro de costos | Procesamiento de datos, ventas, tareas de ahorro de tiempo | Automatización de tareas, I+D, estrategia |
Diferenciador | Más inteligente, rápido y asequible que otros modelos en su categoría de inteligencia | Más asequible que otros modelos con inteligencia similar; mejor para escalar | Mayor inteligencia que cualquier otro modelo disponible |
Disponibilidad | Próximamente | Disponible ahora | Disponible ahora |
La aguja en el pajar
Ahora quiero hablar de uno de los aspectos más interesantes de la familia Claude-3: su capacidad para manejar con precisión grandes cantidades de datos.
Para empezar, Claude-3 ofrece una ventana de contexto de 200k tokens. Esto puede equivaler a unas 150.000 palabras, que deben contener tanto los datos que el modelo puede procesar como su respuesta.
Para valorar este aspecto, se utiliza un benchmark conocido como “la aguja en el pajar” (‘Needle In A Haystack’ o NIAH). Este benchmark trata de probar la capacidad de una IA para encontrar y extraer información específica de un gran corpus de texto. Es, evidentemente, un poco como buscar una aguja en un pajar, y de ahí el nombre.
De acuerdo con el anuncio de Anthropic, no se han limitado a utilizar esta prueba, sino que la han hecho más robusta aumentando el número de pruebas. Y, de acuerdo con la información que facilitan, la tasa de éxito de los modelos Claude-3 es superior al 99%. Para quienes tenemos que lidiar con grandes volúmenes de texto utilizando los modelos actuales, esta noticia es un auténtico regalo.
Una segunda consecuencia de esta capacidad consiste en que los chatbots tendrán una mayor memoria. Todos nos hemos enfrentado a situaciones en las que, pasados unos pocos prompts, nuestra IA se ‘olvidaba’ de lo que habíamos dicho al principio de la conversación y era necesario recordarle nuestro propósito original. Anthropic le ha dado a Claude-3 mayor memoria.
Sistemas multimodales
Además de lo anterior, esta familia de modelos presenta capacidades visuales similares a las que demuestran ChatGPT4 o Gemini. Pueden procesar una amplia variedad de formatos visuales, incluidas fotos, gráficos, diagramas técnicos y gráficos, lo que la convierte en una herramienta poderosa para una amplia variedad de aplicaciones.
El compromiso de Anthropic con la IA responsable
La familia Claude-3 también es un testimonio del compromiso de Anthropic con la IA responsable. Estos modelos están diseñados con la seguridad en su núcleo, asegurando que se comporten ética y responsablemente.
Anthropic ha implementado un marco de seguridad riguroso para garantizar que sus modelos de IA estén alineados con los valores humanos. Esto implica pruebas extensas, mejora iterativa y un enfoque en la transparencia y la explicabilidad. No se trata solo de crear una IA poderosa; se trata de crear una IA en la que podamos confiar.
Para más información, puedes consultar el siguiente enlace:
https://www.anthropic.com/news/constitutional-ai-harmlessness-from-ai-feedback
El impacto de la familia Claude-3
Ahora llega el momento de verificar si las afirmaciones de Anthropic se confirman en la realidad. En todo caso, creo que el impacto de este anuncio irá más allá de la propia familia de modelos. No hace tanto, Google anunciaba que uno de sus sistemas sería capaz de procesar un contexto de 1M de tokens, mientras que lo habitual se encontraría en 128k tokens. Sin embargo, Anthropic ha sacado esas cifras del ámbito de la programación a través de APIs y las ha puesto en manos de los usuarios individuales de plataformas IA. OpenAI y Google tendrán que reaccionar, y eso nos beneficiará a todos.