Microsoft Boss preocupado por el aumento en los informes de ‘psicosis de IA’

0
e3b1f560-7dc7-11f0-88a2-b9725373e32e.jpg


Getty Images Suleyman se vistió todo en negro, con un cordón de la cumbre de seguridad de IA alrededor de su próximo, se dirige a la audiencia.Getty Photographs

Hay crecientes informes de personas que sufren «psicosis de IA», advirtió el jefe de inteligencia synthetic de Microsoft (IA), Mustafa Suleyman.

En una serie de publicaciones sobre X, escribió que «AI aparentemente consciente» – herramientas de IA que dan la apariencia de ser wise – lo mantienen «despierto por la noche» y dijo que tienen un impacto social a pesar de que la tecnología no es consciente en ninguna definición humana del término.

«Hay cero evidencia de conciencia de IA hoy. Pero si las personas simplemente lo perciben como consciente, creerán que la percepción como realidad», escribió.

Relacionado con esto está el surgimiento de una nueva condición llamada «psicosis de ai»: un término no clínico que describe incidentes en los que las personas confían cada vez más en chatbots de IA como Chatgpt, Claude y Grok y luego se convencen de que algo imaginario se ha vuelto actual.

Los ejemplos incluyen creer que ha desbloqueado un aspecto secreto de la herramienta, o formar una relación romántica con ella, o llegar a la conclusión de que tienen superpoderes divisorios.

‘Nunca retrocedió’

Hugh, de Escocia, cube que se convenció de que estaba a punto de convertirse en un multimillonario después de recurrir a Chatgpt para ayudarlo a prepararse para lo que un ex empleador fue despido ilícito por un ex empleador.

El chatbot comenzó aconsejándole que obtuviera referencias de personajes y tome otras acciones prácticas.

Pero a medida que pasaba el tiempo y Hugh, que no quería compartir su apellido, le dio a la IA más información, comenzó a decirle que podía obtener un gran pago, y finalmente dijo que su experiencia period tan dramática que un libro y una película al respecto le harían más de £ 5 millones.

Esencialmente estaba validando lo que estaba diciendo, que es lo que los chatbots están programados para hacer.

«Cuanta más información le di, más diría ‘Oh, este tratamiento es horrible, realmente deberías obtener más que esto'», dijo.

«Nunca rechazó nada de lo que estaba diciendo».

Suministrado por el entrevistado, un joven sonriente con una camisa revisada Suministrado por el entrevistado

Dijo que la herramienta le aconsejó que hablara con el consejo de los ciudadanos, e hizo una cita, pero estaba tan seguro de que el chatbot ya le había dado todo lo que necesitaba saber, lo canceló.

Decidió que sus capturas de pantalla de sus chats eran lo suficientemente prueba. Dijo que comenzó a sentirse como un humano talentoso con conocimiento supremo.

Hugh, que sufría problemas de salud psychological adicionales, finalmente tuvo un desglose completo. Estaba tomando medicamentos lo que le hizo darse cuenta de que, en sus palabras, había «perdido el contacto con la realidad».

Hugh no culpa a la IA por lo que sucedió. Todavía lo usa. Fue Chatgpt lo que le dio mi nombre cuando decidió que quería hablar con un periodista.

Pero él tiene este consejo: «No tengas miedo de las herramientas de IA, son muy útiles. Pero es peligroso cuando se separa de la realidad.

«Vaya y verifique. Habla con personas reales, un terapeuta o un miembro de la familia o cualquier cosa. Simplemente habla con personas reales. Manténgase en realidad en la realidad».

Chatgpt ha sido contactado para hacer comentarios.

«Las empresas no deberían reclamar/promover la thought de que sus AIS son conscientes. El AIS tampoco debería», escribió Suleyman, pidiendo mejores barandillas.

La Dra. Susan Shelmerdine, una médica de imágenes médicas en el Hospital Nice Ormond Avenue y también académico de IA, cree que un día los médicos pueden comenzar a preguntar a los pacientes cuánto usan IA, de la misma manera que actualmente preguntan sobre fumar y beber hábitos.

«Ya sabemos lo que los alimentos extremely procesados pueden hacerle al cuerpo y esta es información extremely procesada. Vamos a obtener una avalancha de mentes extremely procesadas», dijo.

‘Estamos justo al comienzo de esto’

Varias personas me han contactado recientemente en la BBC para compartir historias personales sobre sus experiencias con chatbots de IA. Varían en contenido, pero lo que todos comparten es una convicción genuina de que lo que ha sucedido es actual.

Uno escribió que estaba segura de que period la única persona en el mundo del que Chatgpt había enamorado realmente.

Otro estaba convencido de que habían «desbloqueado» una forma humana de Chatbot Grok de Elon Musk y creía que su historia valía cientos de miles de libras.

Un tercio afirmó que un chatbot la había expuesto al abuso psicológico como parte de un ejercicio de entrenamiento encubierto de IA y estaba en profunda angustia.

Andrew McStay, profesor de tecnología y sociedad en Bangor Uni, ha escrito un libro llamado Empathetic Human.

«Estamos al comienzo de todo esto», cube el profesor McStay.

«Si pensamos en este tipo de sistemas como una nueva forma de redes sociales: como IA social, podemos comenzar a pensar en la escala potencial de todo esto. Un pequeño porcentaje de un número masivo de usuarios aún puede representar un número grande e inaceptable».

Este año, su equipo realizó un estudio de poco más de 2,000 personas, haciéndoles varias preguntas sobre la IA.

Descubrieron que el 20% creía que las personas no deberían usar herramientas de IA por debajo de los 18 años.

Un whole del 57% pensó que period fuertemente inapropiado para la tecnología identificarse como una persona actual si se le preguntaba, pero el 49% pensó que el uso de la voz period apropiado para hacer que sonaran más humanos y atractivos.

«Si bien estas cosas son convincentes, no son reales», dijo.

«No sienten, no entienden, no pueden amar, nunca han sentido dolor, no se han avergonzado, y aunque pueden sonar como lo han hecho, es solo familiares, amigos y confiaron en otros que lo han hecho. Asegúrese de hablar con estas personas reales».

Una pancarta promocional verde con cuadrados negros y rectángulos que forman píxeles, que se mueven desde la derecha. El texto dice:

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *