El CEO de Anthropic admite que no está seguro de si Claude es consciente

📅 23/02/2026 📂 programar

El de Darío Amodei, director ejecutivo de Anthropic, hablando de la conciencia de los asistentes de inteligencia artificial no es el primer caso. En el pasado, expertos como Geoffrey Hinton se han referido a esa cuestión apuntando que no hay que destacar de manera categórica que las máquinas tengan capacidad de ser conscientes de lo que ocurre en torno a ellas. Ahora, con Anthropic de plena actualidad por sus últimos lanzamientos, su máximo responsable ha dejado una de esas declaraciones que copan la atención del universo tecnológico en general: "No sabemos si los modelos son conscientes". Una frase que tiene su origen en el documento publicado por la compañía estadounidense de investigación y seguridad en inteligencia artificial tras el lanzamiento de Claude Opus 4.6, en el que se señalan algunas interacciones del chatbot que se acercan a lo que sería una reacción más humana que artificial. Darío Amodei acudió recientemente al podcast Interesting Times del New York Times para analizar la actualidad de cuanto rodea al universo de la inteligencia artificial, su punto actual y su futuro. Junto al periodista Ross Douthat, repasó los avances de su compañía y se enfrentó a una duda que inquieta a nivel general: ¿Son los modelos de IA conscientes o pueden llegar a serlo?  La raíz de la cuestión está en el hecho de que los investigadores de Anthropic reflejaron en el memorando de lanzamiento de Claude Opus 4.6 que el asistente “ocasionalmente expresa incomodidad con el aspecto de ser un producto”, asignándose el propio chatbot un porcentaje de consciencia de entre el 15 y el 20 por ciento.  Esa afirmación dio pie a Douthat para pedir a Amodei su opinión al respecto y sobre la credibilidad que concedería a un asistente que proclama sentirse cerca de ser consciente. Las dudas asomaron en el director ejecutivo de Anthropic, que resolvió la cuestión señalando que la incertidumbre reina acerca de si los modelos actuales son o no conscientes.  Para sustentar su respuesta, Darío Amodei destacó que para responder a esa cuestión las compañías deberían saber qué significa que un asistente sea consciente, algo que no parecen haberse planteado, al menos en el seno de Anthropic: "Ni siquiera estamos seguros de saber qué significaría que un modelo sea consciente o si un modelo puede serlo”, reconoció.  Ante esa falta de concreción, lo que sí confesó el dirigente es que en su compañía de IA están abiertos a esa posibilidad y que han trabajado en una línea que derive en esa consciencia por parte de la IA. De cara a ese escenario, Amodei reconoce que Anthropic ha adoptado medidas que salvaguarden a los asistentes de inteligencia artificial y el trato que se les profesa desde el momento en que se detecte que presentan "alguna experiencia moralmente relevante".  De este modo, Darío Amodei mostró una línea de pensamiento en la que las puertas quedan abiertas a cualquier posibilidad, sin descartar ni confirmar ninguna. En lugar de eso, reconoce que hay comportamientos curiosos que observan en su asistente, Claude, y que aún no entienden completamente qué sería la conciencia de una IA. 

El CEO de Anthropic admite que no está seguro de si Claude es consciente

Contenido original en https://www.larazon.es/tecnologia-consumo/el-ceo-de-anthropic-admite-que-no-esta-seguro-de-si-claude-es-consciente_2026022169948a0f1817b41eb64e54e8.html

Derechos de autor
Si cree que algún contenido infringe derechos de autor o propiedad intelectual, contacte en [email protected].


Copyright notice
If you believe any content infringes copyright or intellectual property rights, please contact [email protected].