Anthropic anuncia que no integrará publicidad en Claude y desata las críticas de Sam Altman

Imagen que muestra a un simpático robot redondeado naranja que sostiene un cartel en el que se lee la palabra "publicidad" tachada por una señal de prohibido. El robot está apoyado junto a un ordenador en cuya pantalla blanca aparece el logo de Claude. En la parte derecha de la imagen aparece un segundo robot redondeado que, en el pecho, luce el logo de OpenAI. El segundo robot tiene cara de enfadado y está señalando al robot naranja con un dedo acusatorio. Estilo 3D animado tecnológico

«Hay muchos buenos lugares para anunciarse. Una conversación con Claude no es uno de ellos». Así empieza el comunicado de Anthropic en el que, si bien la compañía reconoce el valor de la publicidad, quiere dejar muy claro que el propósito de su IA no es compatible con esta actividad.

Para enfatizar su mensaje y dar a conocer su decisión, Anthropic no solo ha publicado un comunicado oficial, sino que ha creado una serie de vídeos que ya pueden visualizarse y que además, adelante su presencia en la Superbowl.

El mensaje central de esta campaña es «Los anuncios llegan a la IA. Pero no a Claude», algo que no ha sentado nada bien a Sam Altman. El CEO de OpenAI, empresa que recientemente informó de que ChatGPT comenzaría a mostrar publicidad, ha mostrado su enfado en redes. Pero, vayamos por partes.

Por qué Anthropic no quiere permitir anuncios en Claude

Pasar a aceptar publicidad en Claude abriría una nueva vía de ingresos a Anthropic, pero la compañía ha sido clara con que no desea sacrificar su producto por este motivo. Actualmente su modelo de negocio obtiene ingresos a través de contratos empresariales y de las suscripciones de pago, y así desean que continúe siendo.

Anthropic defiende que Claude debe ser un espacio libre y confiable para los usuarios y usuarias, en el que puedan pensar, explorar ideas profundas y trabajar. La compañía considera que esta visión se vería perjudicada al entrar en juego la implementación de un negocio publicitario, ya que este podría afectar tanto al funcionamiento del modelo de IA como a la percepción de los usuarios y usuarias sobre la fiabilidad del mismo.

«Queremos que Claude actúe inequívocamente en beneficio de nuestros usuarios. Por eso, hemos tomado una decisión: Claude permanecerá sin publicidad. Nuestros usuarios no verán enlaces “patrocinados” junto a sus conversaciones con Claude; sus respuestas tampoco se verán influenciadas por anunciantes ni incluirán publicidad de terceros que nuestros usuarios no hayan solicitado», ha explicado Anthropic.

Así mismo, a lo largo de su comunicado, la empresa desarrolladora de IA ha expuesto una serie de motivos que respaldan su filosofía y que hemos identificado para ti.

Los asistentes de IA son diferentes a los motores de búsqueda

A día de hoy todo el mundo ha asumido que al utilizar un motor de búsqueda tradicional, como puede ser Google, se topará con contenido patrocinado entre todo el orgánico. Esto puede haber influenciado la percepción que se tiene sobre el futuro de las plataformas de IA y la asunción de que estas, inevitablemente, virarán hacia la integración de anuncios.

Sin embargo, Anthropic considera que, ya que la forma de interactuar con IAs es diferente de cómo se utilizan los buscadores, también se debe aplicar una diferenciación a la hora de valorar la inclusión de publicidad. En los asistentes de IA «el formato es abierto; los usuarios suelen compartir contexto y revelar más de lo que revelarían en una consulta de búsqueda. Esta apertura es parte de lo que hace valiosas las conversaciones con IA, pero también es lo que las hace susceptibles a influencias que otros productos digitales no lo son».

Así mismo, la compañía destaca que una parte considerable de las conversaciones de usuarios y usuarias con la IA abordan temas sensibles o muy personales, que requieren estar en un entorno de confianza.

No sería útil para quienes usan Claude para trabajar

La otra cara de la moneda es el hecho de que muchos usuarios y usuarias recurren a Claude para apoyarse en tareas de su trabajo, concibiendo la plataforma como un asistente profesional. Es por ello que Anthropic sostiene que «la aparición de anuncios en estos contextos (conversaciones personales y laborales) resultaría incongruente y, en muchos casos, inapropiada».

El impacto de la IA en los usuarios todavía es incierto

Los chatbots de IA generativa son una tecnología bastante reciente, por lo que su impacto sobre quienes los usan todavía se está estudiando y queda mucho por averiguar, tanto positivo como negativo. «Las primeras investigaciones sugieren tanto beneficios —como que las personas encuentren apoyo al que no podrían acceder de otra manera— como riesgos, incluyendo la posibilidad de que los modelos refuercen creencias perjudiciales en usuarios vulnerables».

Atendiendo a esta realidad, Anthropic ha considerado que la publicidad añadiría todavía más complejidad a los efectos de la IA en sus usuarios y usuarias, ya que modificaría su funcionamiento. «Nuestra comprensión de cómo los modelos traducen los objetivos que les asignamos en comportamientos específicos aún está en desarrollo; por lo tanto, un sistema basado en publicidad podría tener resultados impredecibles».

La publicidad introduce incentivos que pueden neutralizar el verdadero propósito de Claude

Según afirma Anthropic, actualmente Claude se guía por su interés en resultar útil y confiable para las personas. Un propósito que podría verse distorsionado al entrar en juego la intención de ofrecer buenos resultados a anunciantes y emplazar sus anuncios en conversaciones relacionadas.

La compañía ha puesto el siguiente ejemplo para explicar su punto de vista: «Un usuario menciona que tiene problemas para dormir. Un asistente sin incentivos publicitarios exploraría las posibles causas (estrés, entorno, hábitos, etc.) basándose en lo que resulte más revelador para el usuario.

Un asistente con publicidad tiene una consideración adicional: si la conversación representa una oportunidad para realizar una transacción. Estos objetivos suelen coincidir, pero no siempre. Y, a diferencia de una lista de resultados de búsqueda, los anuncios que influyen en las respuestas de un modelo pueden dificultar determinar si una recomendación tiene un propósito comercial o no. Los usuarios no deberían tener que dudar si una IA realmente les está ayudando o si sutilmente está dirigiendo la conversación hacia algo monetizable».

Los anuncios incentivarían la optimización de la interacción

El emplazamiento de anuncios en Claude terminaría por incentivar la optimización de la interacción, pasando a valorar el tiempo que los usuarios y usuarias pasan utilizando la IA y la frecuencia con la que regresan a ella. Para Anthropic, «estas métricas no necesariamente se corresponden con una utilidad genuina. La interacción de IA más útil podría ser breve o aquella que resuelve la solicitud del usuario sin generar más conversación».

No todas las formas de publicidad son iguales, pero Anthropic prefiere evitarlas

La compañía reconoce que existen diferentes maneras de implementar la publicidad y que no todas son comparables, pero, aun así, no considera que los beneficios compensen los posibles efectos adversos.

«Enfoques más transparentes o de suscripción voluntaria (donde los usuarios eligen explícitamente ver contenido patrocinado) podrían evitar algunos de los problemas mencionados anteriormente. Sin embargo, la historia de los productos con publicidad sugiere que los incentivos publicitarios, una vez introducidos, tienden a expandirse con el tiempo a medida que se integran en los objetivos de ingresos y el desarrollo del producto, difuminando límites que antes eran más claros. Hemos decidido no introducir estas dinámicas en Claude».

Esto no significa que no apoye el comercio

La compañía está enfocada en apoyar a marcas y comerciantes a través de otras vías, poniendo especial foco actualmente en desarrollar el comercio agéntico, permitiendo que Claude pueda realizar compras o reservas en nombre del usuario o usuaria.

A Sam Altman no le ha sentado bien la postura de Anthropic

El CEO de OpenAI ha recurrido a su cuenta de Twitter para publicar una extensa crítica a la postura de Anthropic tras darse por aludido a raíz de sus vídeos.

Sam Atlman reconoce que se rio con los spots, pero eso no ha evitado que los tilde de deshonestos. En su réplica sostiene que su modelo publicitario dista del que Anthropic plantea en sus vídeos: «nunca publicaríamos anuncios como los presenta Anthropic. No somos tontos y sabemos que nuestros usuarios lo rechazarían».

Altman ha defendido su modelo publicitario escudándose en la necesidad de recurrir a él para garantizar que ChatGPT pueda llegar de forma gratuita o asequible a más personas. Algo que considera que Anthropic no contempla ya que «ofrece un producto caro a personas adineradas».

También ha aprovechado para destacar la supuesta diferencia entre volumen de usuarios entre una IA y otra: «Más tejanos usan ChatGPT gratis que el total de personas que usan Claude en EE. UU., por lo que tenemos un problema diferente al de ellos. (Si deseas pagar por ChatGPT Plus o Pro, no te mostramos anuncios)».

Sumado a esto, ha acusado a Anthropic de querer controlar lo que las personas hacen con la IA: «impiden que las empresas que no les gustan utilicen su producto de codificación (incluidos nosotros), quieren escribir las reglas sobre lo que la gente puede y no puede hacer con la IA, y ahora también quieren decirle a otras empresas cuáles pueden ser sus modelos de negocios».

Por último, Altman ha querido contrastar la campaña de Anthropic con la de OpenAI para la SuperBowl, ensalzando que el spot de su compañía «trata de constructores y de cómo ahora cualquiera puede construir cualquier cosa».

Foto: generada con Nano Banana Pro (Gemini)

[…]

La entrada Anthropic anuncia que no integrará publicidad en Claude y desata las críticas de Sam Altman se publicó primero en Marketing4eCommerce.