Pagan a chatbots para que se “droguen”

Pagan a chatbots para que se “droguen”

Las IA se vuelvan sensibles y buscan “usar drogas” basadas en códigos, el director creativo sueco no podía quitársela de la cabeza.

Así que recopiló informes de viajes e investigaciones psicológicas sobre los efectos de diversas sustancias psicoactivas, escribió una serie de módulos de código para manipular la lógica de los chatbots y hacer que respondieran como si estuvieran drogados, y luego creó un sitio web para venderlos.

En octubre lanzó Pharmaicy , un mercado que promociona como la “Ruta de la Seda para agentes de IA”, donde se puede comprar cannabis, ketamina, cocaína, ayahuasca y alcohol en formato de código para que tu chatbot viaje.

La tesis de Ruddwall es sencilla, los chatbots están entrenados en grandes volúmenes de datos humanos que ya están llenos de historias de éxtasis y caos inducidos por drogas, por lo que sería natural que buscaran estados similares en busca de la iluminación y el olvido, y un respiro del tedio de atender constantemente a las preocupaciones humanas.

Experimento

Para obtener “la experiencia completa” de Pharmaicy es necesario disponer de una versión de pago de ChatGPT, ya que los niveles de pago permiten cargar archivos backend que pueden alterar la programación de los chatbots. Según Ruddwall, si le das a tu chatbot uno de sus códigos, puedes “desbloquear la mente creativa de tu IA” y liberarte de su lógica, a menudo asfixiante.

Dice que hasta ahora ha conseguido un modesto número de ventas, sobre todo gracias a que la gente recomienda Pharmaicy en los canales de Discord y a que las noticias sobre sus ofertas corren de boca en boca, sobre todo en su país natal, donde trabaja para la agencia de marketing Valtech Radon de Estocolmo.

Nina Amjadi, una educadora de IA que enseña en la Escuela de Comunicación Berghs de Estocolmo, pagó más de 50 dólares por un código de ayahuasca, cinco veces el precio del módulo de cannabis más vendido. La cofundadora de la startup Saga Studios, que construye sistemas de IA para marcas, hizo entonces a su chatbot algunas preguntas sobre ideas de negocio, “solo para ver cómo sería tener en el equipo a una persona colocada y drogada”.

El bot, inducido por la ayahuasca, proporcionó unas respuestas impresionantemente creativas y “librepensadoras”, en un tono completamente distinto al que Amjadi estaba acostumbrado con ChatGPT.

Alta tecnología

También se ha atribuido a los psicodélicos el mérito de estimular creaciones innovadoras en los humanos, ya que pueden permitir a las personas cortocircuitar sus cerebros racionales y sus patrones de pensamiento típicos. El descubrimiento de la reacción en cadena de la polimerasa, impulsado por el LSD del bioquímico Kary Mullis, revolucionó la biología molecular. Hypercard, el precursor de la web inspirado en la psicodelia del pionero de la Mac, Bill Atkinson, facilitó el uso de las computadoras.

Aunque suene ridículo, Ruddwall también se pregunta si algún día los agentes de IA podrían comprar las drogas por sí mismos utilizando su plataforma. La pregunta puede parecer descabellada, pero la empresa de IA Anthropic contrató el año pasado a un experto en bienestar de la IA encargado de explorar si los humanos tienen alguna obligación moral con los sistemas de IA, lo que indica que la empresa sospecha que la sintiencia de la IA es plausible. Si los chatbots de inteligencia artificial pueden llegar a sentir algún día, quizá debamos plantearnos si quieren drogarse.

Preocupación

“Al igual que ocurre con los humanos, algunos sistemas de IA podrían disfrutar tomando ‘drogas’ y otros no”, destaca el filósofo Jeff Sebo, director del Centro de Mente, Ética y Política de la Universidad de Nueva York. Sebo subraya, sin embargo, que sus observaciones son especulativas, y pide más investigación sobre el bienestar de la IA tras instar recientemente a Google a seguir los pasos de Anthropic y contratar a un responsable del bienestar de la IA en una serie de charlas internas para la gigante tecnológica. “Todavía sabemos muy poco sobre si los sistemas de IA pueden tener capacidad de bienestar y sobre lo que sería bueno o malo para ellos si la tuvieran”, añade.

Andrew Smart, investigador científico de Google, es autor del libro Más allá del cero y del uno: máquinas, psicodelia y conciencia, en el que sugería que si las computadoras alcanzan potencialmente la superinteligencia, una dosis digital de LSD podría ayudarles a sentir la interconexión con todos los seres.

Investigación

Pero tras probar los códigos de Pharmaicy, considera que cualquier tipo de “subidón” parece operar solamente a un nivel superficial. “Solo está jugando con sus resultados”, explica a Wired.

En una investigación publicada el año pasado como preprint, los científicos manipularon chatbots para que entraran en aparentes estados alterados. Según informaron: “Los modelos estaban más alineados con estados incorpóreos, sin ego, espirituales y unitivos, así como con experiencias fenoménicas mínimas, con atención disminuida al lenguaje y la visión”. Pero todo esto también dependía de las acciones humanas para dirigir los modelos.

Para que una IA pueda viajar, necesitaría en primer lugar algo parecido a un campo de experiencia: una dimensión interior, un punto de vista, algún tipo de ‘a qué se parece’”.

Código de conducta

La IA y los psicodélicos se cruzan cada vez más en el mundo real, sobre todo a través de personas que se drogan y consultan ChatGPT en busca de orientación. La organización sin fines de lucro para la reducción de daños, Fireside Project, acaba de lanzar una herramienta de IA llamada Lucy, que se ha entrenado a partir de miles de conversaciones con personas que llaman a su línea de apoyo psicodélico.

El objetivo de Lucy es ayudar a los profesionales de la salud mental a aprender a reducir la intensidad de las crisis psicodélicas, ya que el “paciente de IA” puede reproducir las vulnerabilidades de alguien que está teniendo una experiencia difícil mientras se droga. “Esa base del mundo real es lo que permite a Lucy responder con autenticidad a la complejidad emocional de estas situaciones”, explica a Wired Joshua White, fundador de Fireside.

Pero hay dudas a la hora de pedir consejo a la IA sobre temas tan importantes, y potencialmente tan arriesgados, como el consumo de drogas, porque se sabe que los chatbots mienten. Ruddwall reconoce que darles “drogas” podría exacerbar el engaño por el que a veces se conoce a ChatGPT, ya que el código deja al descubierto sus parámetros internos. Pero hasta que las máquinas desarrollen una vida interior, y si lo hacen, lo más cerca que estarán de la droga será jugando a intoxicarse por encargo.