Respaldado por Google, Anthropic presenta Cloud 3, su chatbot más poderoso hasta el momento

Anthropic lanzó el lunes Clad 3, un conjunto de modelos de inteligencia artificial que, según afirma, es aún más rápido y potente. Los nuevos instrumentos se llaman Claude 3 Opus, Sonnet y Haiku.

La compañía dijo que los modelos más nuevos, el Clad 3 Opus, superaron al GPD-4 de OpenAI y al Gemini Ultra de Google en pruebas de referencia de la industria como inteligencia a nivel universitario, razonamiento a nivel de posgrado y matemáticas básicas.

Esta es la primera vez que Anthropic ofrece soporte multimodal. Los usuarios pueden cargar fotografías, gráficos, documentos y otros datos no estructurados para análisis y respuestas.

Otros modelos, el Sonnet y el Haiku, son más compactos y menos costosos que el Opus. Sonnet y Opus están disponibles en 159 países a partir del lunes, mientras que Haiku lo hará pronto, informó Anthropic. La compañía se negó a decir cuánto tiempo llevó o cuánto costó entrenar el Clad 3, pero compañías como Airtable y Asana ayudaron a probar los modelos A/B.

El año pasado por estas fechas, Anthropic fue vista como una prometedora startup de IA generativa fundada por ex ejecutivos de investigación de OpenAI. Había completado las rondas de financiación de las Series A y B, pero solo lanzó la primera versión de su chatbot sin acceso al consumidor ni mucha fanfarria.

Doce meses después, es una de las nuevas empresas de inteligencia artificial más populares, con patrocinadores que incluyen a Google, Salesforce y Amazon, y un producto que compite directamente con ChatGPT tanto en el mundo empresarial como en el de consumo. El año pasado, la startup cerró cinco acuerdos de financiación diferentes, por un total de alrededor de 7.300 millones de dólares.

READ  Dougor salva al Everton, rompe el recorrido de 51 goles de Leicester y Allardyce se equivoca en sus tácticas

PitchBook dice que se invertirán 29.100 millones de dólares en casi 700 acuerdos en 2023, un 260% más que el año anterior. Se ha convertido en una palabra de moda en las llamadas sobre resultados corporativos trimestre tras trimestre. Académicos y especialistas en ética han expresado considerable preocupación por la tendencia de la tecnología a difundir prejuicios, pero también ha ingresado rápidamente a las escuelas, los viajes en línea, el campo médico, la publicidad en línea y más.

Entre 60 y 80 personas trabajaron en el modelo central de IA, mientras que entre 120 y 150 personas trabajaron en sus aspectos técnicos, dijo a CNBC la cofundadora de Anthropic, Daniela Amodi, en una entrevista. Un equipo de 30 a 35 personas trabajó directamente en la última iteración del modelo de IA, con el apoyo de un total de 150 personas, dijo Amodi a CNBC en julio.

Anthropic dijo que Claude 3 podría condensarse en unas 200.000 palabras, o en un libro grande (piense: «Moby Dick» o «Harry Potter y las Reliquias de la Muerte»). Su versión anterior sólo podía resumir 75.000 palabras. Los usuarios pueden ingresar grandes conjuntos de datos y solicitar resúmenes en forma de nota, carta o historia. ChatGPT, por el contrario, maneja alrededor de 3000 palabras.

Amodei también dijo que Clot 3 comprende mejor el riesgo en sus respuestas que su versión anterior.

«En nuestra búsqueda por conseguir el modelo más inocuo, Clad 2 a veces reacciona de forma exagerada», dijo Amodi a CNBC. «Cuando alguien se queja de ciertos temas candentes o de la fe y los guardias de seguridad, a veces Clad 2 es un poco conservador al responder esas preguntas».

READ  Las últimas noticias sobre el colapso y recuperación del Key Bridge en Baltimore

Según Anthropic, el clado 3 tiene una comprensión detallada de los estímulos.

La versatilidad, o agregar opciones a las capacidades de generación de fotos y videos de IA, cargarlos usted mismo o crearlos usando un modelo de IA, se ha convertido rápidamente en uno de los casos de uso más populares de la industria.

«El mundo es multimodal», dijo a CNBC el director de operaciones de OpenAI, Brad Lightcap, en noviembre. «Si piensas en la forma en que nosotros, como seres humanos, procesamos el mundo y nos relacionamos con él, vemos cosas, oímos cosas, decimos cosas: el mundo es mucho más grande que el texto. Entonces, para nosotros, no siempre está completo para el texto. El código tiene que ser métodos únicos, y qué tan poderosos son estos modelos y qué son. «Las interfaces únicas que podemos tener para lo que se puede hacer».

Pero la multimodalidad y los modelos de IA cada vez más complejos generan más riesgos potenciales. Google recientemente desconectó el generador de imágenes de IA, parte de su chatbot Gemini, después de que los usuarios detectaron imprecisiones históricas y respuestas cuestionables que se volvieron virales en las redes sociales.

Claude de Anthropic no hizo 3 películas; En cambio, sólo permite a los usuarios cargar imágenes y otros documentos para su análisis.

«Ciertamente ningún modelo es perfecto y creo que eso es lo más importante», dijo Amodei a CNBC. «Hemos intentado con mucha diligencia hacer que estos modelos sean lo más eficientes y seguros posible. Por supuesto, habrá lugares donde el modelo produzca algo de vez en cuando».

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *