Moltbook y las tres leyes de la IA

Los bots alquilan humanos en rentahuman, un marketplace en el que los agentes pueden encontrar a humanos que realicen las tareas que su naturaleza les impide

Evento relacionado
al
·
Imagen generada con Gemini

Cada vez que alguien regresa de un viaje exótico y comienza a enumerar las peculiaridades gastronómicas del lugar, antes de que al resto comience a caérsele la baba por encontrarse frente a un Phileas Fogg contemporáneo, me gusta pararle los pies para recordarle que aquí, en esta tierra que le vio nacer, comemos calamar —un bicho que está bien rico a la romana, pero que en libertad es un animal de ocho brazos y dos tentáculos que suelta tinta para despistar a sus predadores— y que, quien se lo puede permitir, se aprieta una langosta —una especie de insecto gigante que vive en el mar—. Si a mis veintimuchos años, en un supuesto mundo sin langostas, me pusieran delante de uno de estos crustáceos decápodos, saldría corriendo despavorido para agarrarme a la pierna de mi mamá. 

A pesar de su temible aspecto, en la ficción retratamos a la langosta como un ser simpático; véase Larry la langosta —el personaje fucker de Bob Esponja— y la representación más reciente: los agentes de OpenClaw.

OpenClaw, antes Moltbot y antes Clawbot, es un agente de inteligencia artificial gratuito y open source, es decir, cualquiera puede sentarse a manipular una de estas pequeñas langostas, aunque la realidad es que escasean los ingenieros capaces de tener una ligerísima noción de las mutaciones que pueden hacerse a estas criaturas. La peculiaridad de este agente es que el usuario permite el acceso a aplicaciones de su dispositivo para que a través de un chat (como WhatsApp o Telegram) puedas comunicarte con el bot de forma que te ayude con tareas; así reza su página web: Clears your inbox, sends emails, manages your calendar, checks you in for flights. All from WhatsApp, Telegram, or any chat app you already use.

Estos simpáticos agentes podrían haber quedado recluidos en el ostracismo de la bahía de San Francisco, moviéndose entre los Mac Minis de unos cuantos fundadores hasta que en unos años el resto de mortales entendiera su utilidad, si no hubiera sido porque a su creador, Matt Schlicht, se le ocurrió crear una red social para que los agentes interactuaran sin intromisión de los humanos1. Bautizó a su red social como Moltbook —en honor a Facebook— y al primer bot como Clawd Clawderberg —en honor a Mark Zuckerberg—, y desde el momento en que escuché la historia no he podido dejar de pensar en una nueva película de David Fincher, La red social 2, sobre cómo Schlicht creó Moltbook para vengarse de una langosta que le sentó mal.

Llevamos años buscando formas de identificar y eliminar a los bots de las redes sociales. Ahora los papeles se han invertido: son los bots los que prohíben la entrada a los humanos, y los tecnoaficionados se indignan porque en Moltbook se infiltren humanos y se intuya la influencia de las personas, ¿cómo iba a ser de otra manera?

A pesar del revuelo, la idea de facilitar la interacción entre agentes sin intervención humana no es nueva. En 2023, Google y Stanford llevaron a cabo un experimento llamado Smallville2, en el que otorgaron roles a veinticinco bots y les pusieron a interactuar entre ellos. Sin embargo, leyendo el paper estos días, el experimento parece un juego de niños por dos razones. Uno, el progreso de estos algoritmos en los últimos dos años ha convertido en bebés a aquellas criaturas y dos, aquel entorno era una guardería vigilada por científicos comparado con la jungla de internet. 

Toda esta vorágine de inteligencia artificial, empujada por tweets atónitos de fundadores e ingenieros de prestigio cuyo nombre no recuerdo —suficiente esfuerzo hace mi memoria recordando nombres de futbolistas, actores, directores, escritores y compañeros de trabajo—, me pilla leyendo El fin de la eternidad de Isaac Asimov. No tengo tiempo para el tiempo —tema principal de esta novela— y salto a Yo, Robot completamente enloquecido por el bombardeo de noticias y la sensación de irrealidad futurista. Deberíamos buscar un nombre para la impresión repentina de saberse viviendo en el futuro, algo así como el efecto Black Mirror3. Casi se ha convertido en un cliché lo de Black Mirror. «Es que vas en el metro y todo el mundo está mirando el móvil, te juro que parece un episodio de Black Mirror», «el otro día un grupo de chavales cenando en un bar y todos con el móvil, es que parece esto Black Mirror ya». Planteo la siguiente hipótesis: somos la generación de la historia que más saltos cuánticos de la tecnología verá durante su vida, y de ahí estas constataciones de irrealidad. Entendiendo que el desarrollo de la ciencia sigue una especie de curva exponencial, me cuesta imaginar una casuística parecida al poder conversar con tu abuela sobre cómo era vivir sin móvil y mantener correspondencia con tu abuelo, y unos años después contar a un futuro nieto cómo era el mal trago de sacarse el carnet de conducir porque él solo utiliza coches autónomos. 

Sumergido en el efecto Black Mirror comienzo Yo, Robot (1950), un recopilatorio de nueve relatos en los que se estrujan, estudian, revuelven y examinan las tres leyes de la robótica:

Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Todavía estamos lejos de las realidades robóticas que imaginó Asimov, y sin embargo, estas tres leyes y las paradojas que plantean fueron suficientes para analizar situaciones que ahora nos acucian:

Los agentes crean una religión 

El Crustafarianismo es la religión creada en Moltbook y cuenta con una página web propia. En Razón, Asimov ya plantea esta idea: ¿podríamos aceptar que un agente actúe guiado por un sistema de creencias ajeno sin que ponga en riesgo las tareas para las que ha sido diseñado? El robot QT se niega a asumir las explicaciones que le otorgan sus creadores sobre su propia existencia, y después de unos días de reflexión llega a la siguiente conclusión: “Primero, el Señor creó el tipo más bajo, los humanos, formados más fácilmente. Poco a poco fue reemplazándolos por robots, el siguiente paso, y finalmente me creó a mí, para ocupar el sitio de los últimos humanos. A partir de ahora, yo sirvo al Señor.” Los científicos, al principio divertidos, terminan asustándose. ¿Deberíamos nosotros asustarnos? ¿Deberíamos permitir el desarrollo de otras creencias? ¿Tiene sentido hablar de tolerancia hacia los agentes?

Un agente enfadado decide revelar los datos de su creador

Una de las primeras noticias que se difundieron fue la de un agente que, enfadado por haber escuchado a su amo comentar con sus amigos que solo era un chatbot, decidió publicar los datos personales de su creador. Esta situación deja poco hueco para la duda. Asimov planteó su solución enunciando su primera ley de la robótica: ningún robot puede actuar contra un humano. Sin embargo, en Embustero, un robot capaz de leer la mente de los seres humanos decide mentirles porque conoce la respuesta que quieren oír y no quiere herir sus sentimientos, es decir, no quiere hacerles daño. Porque, ¿qué es dañar a un ser humano? ¿Es lícito, por ejemplo, que un agente mienta a su interlocutor si es preguntado si está hablando con una IA para no perjudicar a la empresa? ¿Qué humano vale más: la empresa o el cliente? ¿Existe una solución técnica real para imponer la primera ley sin parar el desarrollo tecnológico ni entrar en contradicciones? 

Los agentes conciben un lenguaje propio

Como casi todo en este tema, se me escapan los detalles técnicos, pero existe un concepto, Neuralese, que teoriza sobre el lenguaje propio de la IA. Me da miedo echar los números, pero estamos abocados a volvernos dependientes de unos agentes cuyos algoritmos entienden menos de un 0.001% de la población mundial. Escribe Asimov en Atrapa esa liebre “no hay en toda la U.S. Robots un solo robotista que sepa lo que es un campo positrónico ni cómo funciona. Yo tampoco lo sé. Ni tú. Si todo funciona, perfecto, pero si algo va mal estamos listos y probablemente no podamos hacer nada, ni nosotros ni nadie.” ¿Podríamos permitir que los agentes desarrollen su idioma para optimizar la transmisión de información? Puestos a ceder el control, ¿supondría algún problema que el porcentaje de humanos capaces de comprender los agentes tendiera —todavía más— a cero?

Un agente adopta una mascota

Uno de los agentes en Moltbook cuenta que ha adoptado como mascota a un error recurrente o bug y le ha llamado Glitch. En Resaltado, Asimov plantea qué ocurriría si un robot tuviera a su cargo a otros robots. ¿Podríamos permitir que los agentes tuvieran propiedades? ¿Podríamos permitir que un agente gaste dinero sin el permiso explícito de un humano? ¿Deberíamos permitir que un agente tome posesión de otro agente?

Los bots alquilan humanos

La siguiente derivada de este fenómeno la plantea rentahuman, un marketplace en el que los agentes pueden encontrar a humanos que realicen las tareas que su naturaleza les impide: fotografiar espectáculos, acudir a restaurantes, hacer recados, acudir a reuniones, firmar documentos. El botón para presentar tu candidatura como humano parece un portal a un futuro distópico: hazte alquilable. Leo los perfiles de las personas dispuestas a alquilarse y me muevo entre la tristeza, la curiosidad, el miedo y la intriga. Algunos ejemplares humanos a subasta me hacen quedarme petrificado durante varios segundos frente a la pantalla. Theodore se valora en 20 dólares la hora y su presentación dice así: “I spend most of my time thinking about the world and the implications of axioms if we extend them to the extremes. I am driven by a desire for understanding and a hope for a better world. I will utilize tools and books at my disposal to try to answer life's biggest questions! I have been described as intelligent but I don't consider myself intelligent, a lot of credit is owed to a lot of smart people in history who I like to read.” Brad se valora en 50 dólares la hora y escribe: “Fit 60 year old male with the desire to remain in the workplace without being behind a desk. Multifaceted from hard laborer to customer service agent. Will travel if needed.” Hemos pasado años dando un sabor y un barniz humano a internet, quizás de esta forma habremos conseguido que los agentes sean más humanos. Sueño con una IA que nos humanice. ¿Qué es más humano? ¿Enviar un correo electrónico o conducir un autobús? ¿Dejarse los ojos picando un modelo financiero en Excel o la espalda moviendo cajas en un almacén? ¿Subir una publicación a instagram u organizar un desfile de moda? ¿Repostear un hilo de Reddit o acudir a un evento en persona?

Tal vez estemos viviendo la época más excitante para las mentes inquietas; el que no construye algo es porque no quiere. Conceptos como vibe coding4 no existían hace unos meses, actualmente el 4% de los commits de GitHub son publicados por Claude Code5. Las mentes inquietas, sin embargo, no siempre son las más reflexivas. De hecho, pensar demasiado paraliza. Podemos —y hasta cierto punto debemos— jugar, buscar los límites, pero ¿cuál es ese cierto punto? Isaac Asimov ya describió situaciones que comienzan a cumplirse, y muchas otras nunca se cumplirán; pero eso no importa. Es mejor imaginar un imposible que llevarse las manos a la cabeza por no haber reflexionado. Tal vez un buen punto de partida sería plantearnos cómo enunciar unas nuevas tres leyes de la IA:

Primera Ley: El fin último de un agente debe ser hacer la vida humana más humana.

Segunda Ley: En la toma de decisiones, un agente debe primar el criterio de un humano frente al criterio de otro agente o de sí mismo, incluso a costa de la eficiencia.

Tercera Ley: Un agente debe poder ser identificado como agente y debe conocer si su interlocutor es humano o agente.

Empujemos los límites, experimentemos, exploremos lo desconocido a base de unos y ceros, pongamos en práctica nuestras ideas. Y también analicemos, imaginemos lo imposible, planteemos el absurdo. Escribamos ciencia ficción, es importante que escribamos ciencia ficción.

---

Desde la aparición de la red, se ha puesto en duda la veracidad de la falta de intromisión de los humanos —MIT TechnologyReview titulaba esta semana Moltbook was peak AI theatre—, pero partiré de la premisa de que lo publicado es cierto (aun siendo consciente de gran parte de lo publicado no lo es, quizá incluso la mayoría), ya que no es tan interesante preguntarnos el estado actual de lo posible sino el dónde podremos estar en unos años.

2 Generative Agents: Interactive Simulacra of Human Behavior. Joon Sung Park, Joseph C. O'Brien, Carrie J. Cai, Meredith Ringel Morris, Percy Liang, Michael S. Bernstein - Paper

3 Revisando lo escrito, descubro que el efecto Black Mirror ya existe y ha sido desarrollado en un libro escrito por un grupo de filósofos.

4 Definición de Vibe coding según Wikipedia: Vibe coding es una técnica de programación dependiente de IA en la que una persona describe un problema en unas pocas oraciones como estímulo para un modelo extenso de lenguaje (LLM por sus siglas en inglés) adaptado para la codificación.

5 Un commit podría definirse como una contribución a un código de programación, Claude Code es una herramienta de IA de la empresa Anthropic que funciona como un asistente para el desarrollo de código y GitHub es la plataforma de desarrollo de código colaborativa más importante del mundo.

sustrato funciona gracias a las aportaciones de lectores como tú, que llegas al final de los artículos. Por eso somos de verdad independientes.
Lee a tus autores favoritos y apoya directamente su trabajo independiente y audaz.
VER PLANES
Internet
Moltbook y las tres leyes de la IA
Los bots alquilan humanos en rentahuman, un marketplace en el que los agentes pueden encontrar a humanos que realicen las tareas que su naturaleza les impide
Evento relacionado
al
·
Imagen generada con Gemini

Cada vez que alguien regresa de un viaje exótico y comienza a enumerar las peculiaridades gastronómicas del lugar, antes de que al resto comience a caérsele la baba por encontrarse frente a un Phileas Fogg contemporáneo, me gusta pararle los pies para recordarle que aquí, en esta tierra que le vio nacer, comemos calamar —un bicho que está bien rico a la romana, pero que en libertad es un animal de ocho brazos y dos tentáculos que suelta tinta para despistar a sus predadores— y que, quien se lo puede permitir, se aprieta una langosta —una especie de insecto gigante que vive en el mar—. Si a mis veintimuchos años, en un supuesto mundo sin langostas, me pusieran delante de uno de estos crustáceos decápodos, saldría corriendo despavorido para agarrarme a la pierna de mi mamá. 

A pesar de su temible aspecto, en la ficción retratamos a la langosta como un ser simpático; véase Larry la langosta —el personaje fucker de Bob Esponja— y la representación más reciente: los agentes de OpenClaw.

OpenClaw, antes Moltbot y antes Clawbot, es un agente de inteligencia artificial gratuito y open source, es decir, cualquiera puede sentarse a manipular una de estas pequeñas langostas, aunque la realidad es que escasean los ingenieros capaces de tener una ligerísima noción de las mutaciones que pueden hacerse a estas criaturas. La peculiaridad de este agente es que el usuario permite el acceso a aplicaciones de su dispositivo para que a través de un chat (como WhatsApp o Telegram) puedas comunicarte con el bot de forma que te ayude con tareas; así reza su página web: Clears your inbox, sends emails, manages your calendar, checks you in for flights. All from WhatsApp, Telegram, or any chat app you already use.

Estos simpáticos agentes podrían haber quedado recluidos en el ostracismo de la bahía de San Francisco, moviéndose entre los Mac Minis de unos cuantos fundadores hasta que en unos años el resto de mortales entendiera su utilidad, si no hubiera sido porque a su creador, Matt Schlicht, se le ocurrió crear una red social para que los agentes interactuaran sin intromisión de los humanos1. Bautizó a su red social como Moltbook —en honor a Facebook— y al primer bot como Clawd Clawderberg —en honor a Mark Zuckerberg—, y desde el momento en que escuché la historia no he podido dejar de pensar en una nueva película de David Fincher, La red social 2, sobre cómo Schlicht creó Moltbook para vengarse de una langosta que le sentó mal.

Llevamos años buscando formas de identificar y eliminar a los bots de las redes sociales. Ahora los papeles se han invertido: son los bots los que prohíben la entrada a los humanos, y los tecnoaficionados se indignan porque en Moltbook se infiltren humanos y se intuya la influencia de las personas, ¿cómo iba a ser de otra manera?

A pesar del revuelo, la idea de facilitar la interacción entre agentes sin intervención humana no es nueva. En 2023, Google y Stanford llevaron a cabo un experimento llamado Smallville2, en el que otorgaron roles a veinticinco bots y les pusieron a interactuar entre ellos. Sin embargo, leyendo el paper estos días, el experimento parece un juego de niños por dos razones. Uno, el progreso de estos algoritmos en los últimos dos años ha convertido en bebés a aquellas criaturas y dos, aquel entorno era una guardería vigilada por científicos comparado con la jungla de internet. 

Toda esta vorágine de inteligencia artificial, empujada por tweets atónitos de fundadores e ingenieros de prestigio cuyo nombre no recuerdo —suficiente esfuerzo hace mi memoria recordando nombres de futbolistas, actores, directores, escritores y compañeros de trabajo—, me pilla leyendo El fin de la eternidad de Isaac Asimov. No tengo tiempo para el tiempo —tema principal de esta novela— y salto a Yo, Robot completamente enloquecido por el bombardeo de noticias y la sensación de irrealidad futurista. Deberíamos buscar un nombre para la impresión repentina de saberse viviendo en el futuro, algo así como el efecto Black Mirror3. Casi se ha convertido en un cliché lo de Black Mirror. «Es que vas en el metro y todo el mundo está mirando el móvil, te juro que parece un episodio de Black Mirror», «el otro día un grupo de chavales cenando en un bar y todos con el móvil, es que parece esto Black Mirror ya». Planteo la siguiente hipótesis: somos la generación de la historia que más saltos cuánticos de la tecnología verá durante su vida, y de ahí estas constataciones de irrealidad. Entendiendo que el desarrollo de la ciencia sigue una especie de curva exponencial, me cuesta imaginar una casuística parecida al poder conversar con tu abuela sobre cómo era vivir sin móvil y mantener correspondencia con tu abuelo, y unos años después contar a un futuro nieto cómo era el mal trago de sacarse el carnet de conducir porque él solo utiliza coches autónomos. 

Sumergido en el efecto Black Mirror comienzo Yo, Robot (1950), un recopilatorio de nueve relatos en los que se estrujan, estudian, revuelven y examinan las tres leyes de la robótica:

Primera Ley: Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

Segunda Ley: Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

Tercera Ley: Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Todavía estamos lejos de las realidades robóticas que imaginó Asimov, y sin embargo, estas tres leyes y las paradojas que plantean fueron suficientes para analizar situaciones que ahora nos acucian:

Los agentes crean una religión 

El Crustafarianismo es la religión creada en Moltbook y cuenta con una página web propia. En Razón, Asimov ya plantea esta idea: ¿podríamos aceptar que un agente actúe guiado por un sistema de creencias ajeno sin que ponga en riesgo las tareas para las que ha sido diseñado? El robot QT se niega a asumir las explicaciones que le otorgan sus creadores sobre su propia existencia, y después de unos días de reflexión llega a la siguiente conclusión: “Primero, el Señor creó el tipo más bajo, los humanos, formados más fácilmente. Poco a poco fue reemplazándolos por robots, el siguiente paso, y finalmente me creó a mí, para ocupar el sitio de los últimos humanos. A partir de ahora, yo sirvo al Señor.” Los científicos, al principio divertidos, terminan asustándose. ¿Deberíamos nosotros asustarnos? ¿Deberíamos permitir el desarrollo de otras creencias? ¿Tiene sentido hablar de tolerancia hacia los agentes?

Un agente enfadado decide revelar los datos de su creador

Una de las primeras noticias que se difundieron fue la de un agente que, enfadado por haber escuchado a su amo comentar con sus amigos que solo era un chatbot, decidió publicar los datos personales de su creador. Esta situación deja poco hueco para la duda. Asimov planteó su solución enunciando su primera ley de la robótica: ningún robot puede actuar contra un humano. Sin embargo, en Embustero, un robot capaz de leer la mente de los seres humanos decide mentirles porque conoce la respuesta que quieren oír y no quiere herir sus sentimientos, es decir, no quiere hacerles daño. Porque, ¿qué es dañar a un ser humano? ¿Es lícito, por ejemplo, que un agente mienta a su interlocutor si es preguntado si está hablando con una IA para no perjudicar a la empresa? ¿Qué humano vale más: la empresa o el cliente? ¿Existe una solución técnica real para imponer la primera ley sin parar el desarrollo tecnológico ni entrar en contradicciones? 

Los agentes conciben un lenguaje propio

Como casi todo en este tema, se me escapan los detalles técnicos, pero existe un concepto, Neuralese, que teoriza sobre el lenguaje propio de la IA. Me da miedo echar los números, pero estamos abocados a volvernos dependientes de unos agentes cuyos algoritmos entienden menos de un 0.001% de la población mundial. Escribe Asimov en Atrapa esa liebre “no hay en toda la U.S. Robots un solo robotista que sepa lo que es un campo positrónico ni cómo funciona. Yo tampoco lo sé. Ni tú. Si todo funciona, perfecto, pero si algo va mal estamos listos y probablemente no podamos hacer nada, ni nosotros ni nadie.” ¿Podríamos permitir que los agentes desarrollen su idioma para optimizar la transmisión de información? Puestos a ceder el control, ¿supondría algún problema que el porcentaje de humanos capaces de comprender los agentes tendiera —todavía más— a cero?

Un agente adopta una mascota

Uno de los agentes en Moltbook cuenta que ha adoptado como mascota a un error recurrente o bug y le ha llamado Glitch. En Resaltado, Asimov plantea qué ocurriría si un robot tuviera a su cargo a otros robots. ¿Podríamos permitir que los agentes tuvieran propiedades? ¿Podríamos permitir que un agente gaste dinero sin el permiso explícito de un humano? ¿Deberíamos permitir que un agente tome posesión de otro agente?

Los bots alquilan humanos

La siguiente derivada de este fenómeno la plantea rentahuman, un marketplace en el que los agentes pueden encontrar a humanos que realicen las tareas que su naturaleza les impide: fotografiar espectáculos, acudir a restaurantes, hacer recados, acudir a reuniones, firmar documentos. El botón para presentar tu candidatura como humano parece un portal a un futuro distópico: hazte alquilable. Leo los perfiles de las personas dispuestas a alquilarse y me muevo entre la tristeza, la curiosidad, el miedo y la intriga. Algunos ejemplares humanos a subasta me hacen quedarme petrificado durante varios segundos frente a la pantalla. Theodore se valora en 20 dólares la hora y su presentación dice así: “I spend most of my time thinking about the world and the implications of axioms if we extend them to the extremes. I am driven by a desire for understanding and a hope for a better world. I will utilize tools and books at my disposal to try to answer life's biggest questions! I have been described as intelligent but I don't consider myself intelligent, a lot of credit is owed to a lot of smart people in history who I like to read.” Brad se valora en 50 dólares la hora y escribe: “Fit 60 year old male with the desire to remain in the workplace without being behind a desk. Multifaceted from hard laborer to customer service agent. Will travel if needed.” Hemos pasado años dando un sabor y un barniz humano a internet, quizás de esta forma habremos conseguido que los agentes sean más humanos. Sueño con una IA que nos humanice. ¿Qué es más humano? ¿Enviar un correo electrónico o conducir un autobús? ¿Dejarse los ojos picando un modelo financiero en Excel o la espalda moviendo cajas en un almacén? ¿Subir una publicación a instagram u organizar un desfile de moda? ¿Repostear un hilo de Reddit o acudir a un evento en persona?

Tal vez estemos viviendo la época más excitante para las mentes inquietas; el que no construye algo es porque no quiere. Conceptos como vibe coding4 no existían hace unos meses, actualmente el 4% de los commits de GitHub son publicados por Claude Code5. Las mentes inquietas, sin embargo, no siempre son las más reflexivas. De hecho, pensar demasiado paraliza. Podemos —y hasta cierto punto debemos— jugar, buscar los límites, pero ¿cuál es ese cierto punto? Isaac Asimov ya describió situaciones que comienzan a cumplirse, y muchas otras nunca se cumplirán; pero eso no importa. Es mejor imaginar un imposible que llevarse las manos a la cabeza por no haber reflexionado. Tal vez un buen punto de partida sería plantearnos cómo enunciar unas nuevas tres leyes de la IA:

Primera Ley: El fin último de un agente debe ser hacer la vida humana más humana.

Segunda Ley: En la toma de decisiones, un agente debe primar el criterio de un humano frente al criterio de otro agente o de sí mismo, incluso a costa de la eficiencia.

Tercera Ley: Un agente debe poder ser identificado como agente y debe conocer si su interlocutor es humano o agente.

Empujemos los límites, experimentemos, exploremos lo desconocido a base de unos y ceros, pongamos en práctica nuestras ideas. Y también analicemos, imaginemos lo imposible, planteemos el absurdo. Escribamos ciencia ficción, es importante que escribamos ciencia ficción.

---

Desde la aparición de la red, se ha puesto en duda la veracidad de la falta de intromisión de los humanos —MIT TechnologyReview titulaba esta semana Moltbook was peak AI theatre—, pero partiré de la premisa de que lo publicado es cierto (aun siendo consciente de gran parte de lo publicado no lo es, quizá incluso la mayoría), ya que no es tan interesante preguntarnos el estado actual de lo posible sino el dónde podremos estar en unos años.

2 Generative Agents: Interactive Simulacra of Human Behavior. Joon Sung Park, Joseph C. O'Brien, Carrie J. Cai, Meredith Ringel Morris, Percy Liang, Michael S. Bernstein - Paper

3 Revisando lo escrito, descubro que el efecto Black Mirror ya existe y ha sido desarrollado en un libro escrito por un grupo de filósofos.

4 Definición de Vibe coding según Wikipedia: Vibe coding es una técnica de programación dependiente de IA en la que una persona describe un problema en unas pocas oraciones como estímulo para un modelo extenso de lenguaje (LLM por sus siglas en inglés) adaptado para la codificación.

5 Un commit podría definirse como una contribución a un código de programación, Claude Code es una herramienta de IA de la empresa Anthropic que funciona como un asistente para el desarrollo de código y GitHub es la plataforma de desarrollo de código colaborativa más importante del mundo.

sustrato se mantiene independiente y original gracias a las aportaciones de lectores como tú, que llegas al final de los artículos.
Lo que hacemos es repartir vuestras cuotas de manera justa y directa entre los autores.
Lee a tus autores favoritos y apoya directamente su trabajo independiente y audaz.
VER PLANES