Anthropic, el proveedor de inteligencia artificial que ocupa el segundo lugar en tamaño después de OpenAI, tiene una poderosa familia de modelos de inteligencia artificial generativa llamada Claude.
Anthropic, el proveedor de inteligencia artificial que ocupa el segundo lugar en tamaño después de OpenAI, tiene una poderosa familia de modelos de inteligencia artificial generativa llamada Claude. Estos modelos pueden realizar una variedad de tareas, desde subtitular imágenes y escribir correos electrónicos hasta resolver desafíos matemáticos y de codificación.
Dado que el ecosistema de modelos de Anthropic crece tan rápido, puede resultar complicado hacer un seguimiento de qué hace cada modelo de Claude. Para ayudar, hemos elaborado una guía de Claude, que actualizaremos a medida que lleguen nuevos modelos y actualizaciones.
Modelos de claude
Los modelos de Claude llevan el nombre de obras de arte literarias: Haiku, Soneto y Opus. Los últimos son:
- Claude 3 Haiku , un modelo ligero.
- Claude 3.5 Sonnet , un modelo de gama media.
- Claude 3 Opus , el modelo estrella de Anthropic.
Aunque parezca contradictorio, el Claude 3.5 Sonnet (el modelo de “rango medio”) es el modelo Claude más capaz en este momento. Es casi seguro que eso cambiará una vez que se lance la próxima versión de Opus, Claude 3.5 Opus.
Todos los modelos de Claude pueden analizar texto, así como imágenes, gráficos y diagramas técnicos de documentos. Los modelos, que tienen una ventana de contexto estándar de 200 000 tokens, también pueden seguir instrucciones de varios pasos, utilizar herramientas (por ejemplo, rastreadores de cotizaciones bursátiles) y producir resultados estructurados en formatos como JSON .
Una ventana de contexto es la cantidad de datos que un modelo como Claude puede analizar antes de generar nuevos datos, mientras que los tokens son fragmentos subdivididos de datos sin procesar (como las sílabas “fan”, “tas” y “tic” en la palabra “fantástico”). Doscientos mil tokens equivalen a unas 150.000 palabras, o una novela de 600 páginas.
A diferencia de muchos modelos de IA generativa importantes, los de Anthropic no pueden acceder a Internet, lo que significa que no son especialmente buenos para responder preguntas sobre eventos actuales. Tampoco pueden generar imágenes, solo diagramas de líneas simples.
En cuanto a las principales diferencias entre los modelos de Claude, Claude 3.5 Sonnet es más rápido que Claude 3 Opus y comprende mejor las instrucciones complejas y con matices. Haiku tiene dificultades con las indicaciones sofisticadas, pero es el más rápido de los tres modelos.
Precios del modelo Claude
Los modelos Claude están disponibles a través de la API de Anthropic y plataformas administradas como Amazon Bedrock y Vertex AI de Google Cloud .
Aquí están los precios de la API Anthropic:
- Claude 3 Haiku cuesta 25 centavos por millón de tokens de entrada (~750.000 palabras), o $1,25 por millón de tokens de salida.
- Claude 3.5 Sonnet cuesta $3 por millón de tokens de entrada, o $15 por millón de tokens de salida
- Claude 3 Opus cuesta $15 por millón de tokens de entrada, o $75 por millón de tokens de salida
Anthropic ofrece almacenamiento en caché y procesamiento por lotes rápidos para generar ahorros adicionales en tiempo de ejecución.
El almacenamiento en caché de solicitudes permite a los desarrolladores almacenar “contextos de solicitudes” específicos que pueden reutilizarse en llamadas API a un modelo, mientras que el procesamiento por lotes procesa grupos asincrónicos de solicitudes de inferencia de modelos de baja prioridad (y, por lo tanto, más económicas).
Planes y aplicaciones de Claude
Para usuarios individuales y empresas que buscan simplemente interactuar con los modelos Claude a través de aplicaciones para la web, Android e iOS, Anthropic ofrece un plan Claude gratuito con límites de velocidad y otras restricciones de uso.
Actualizar a una de las suscripciones de la empresa elimina esos límites y desbloquea nuevas funciones. Los planes actuales son:
- Claude Pro .
- Claude Team , para pequeñas empresas
- Claude Enterprise , para empresas más grandes
Claude Pro, que cuesta $20 por mes, viene con límites de tarifa 5 veces más altos, acceso prioritario y vistas previas de funciones futuras.
Al estar enfocada en los negocios, Team (que cuesta $30 por usuario por mes) agrega un panel para controlar la facturación y la administración de usuarios e integraciones con repositorios de datos, como bases de código y plataformas de administración de relaciones con clientes (por ejemplo, Salesforce). Un interruptor habilita o deshabilita las citas para verificar las reclamaciones generadas por IA. (Como todos los modelos, Claude alucina de vez en cuando).
Tanto los suscriptores Pro como los Team obtienen Projects, una función que fundamenta los resultados de Claude en bases de conocimiento, que pueden ser guías de estilo, transcripciones de entrevistas, etc. Estos clientes, junto con los usuarios del nivel gratuito, también pueden aprovechar Artifacts, un espacio de trabajo donde los usuarios pueden editar y agregar contenido como código, aplicaciones, diseños de sitios web y otros documentos generados por Claude.
Para los clientes que necesitan aún más, existe Claude Enterprise, que permite a las empresas cargar datos de propiedad exclusiva en Claude para que Claude pueda analizar la información y responder preguntas al respecto. Claude Enterprise también incluye una ventana de contexto más grande (500 000 tokens), integración con GitHub para que los equipos de ingeniería sincronicen sus repositorios de GitHub con Claude, y Proyectos y Artefactos.
Una palabra de precaución
Como ocurre con todos los modelos de IA generativa, existen riesgos asociados con el uso de Claude.
Los modelos cometen errores ocasionalmente al resumir o responder preguntas debido a su tendencia a alucinar . También se los entrena con datos web públicos, algunos de los cuales pueden estar sujetos a derechos de autor o a una licencia restrictiva. Anthropic y muchos otros proveedores de inteligencia artificial argumentan que la doctrina del uso justo los protege de las demandas por derechos de autor. Pero eso no ha impedido que los propietarios de los datos presenten demandas .
Anthropic ofrece políticas para proteger a ciertos clientes de las batallas judiciales que surgen de las impugnaciones por uso legítimo. Sin embargo, no resuelven el dilema ético de utilizar modelos entrenados con datos sin permiso. TechCrunch. K. W. traducido al español