ChatGPT inventó una función de producto de la nada, por lo que esta compañía la creó
El lunes, la plataforma de partituras Soundslice cube desarrolló un nueva característica Después de descubrir que Chatgpt estaba diciendo incorrectamente que los usuarios que el servicio podía importar Tablatura ascii—En formato de notación de guitarra basado en texto La compañía nunca había apoyado. Según los informes, el incidente marca cuál podría ser el primer caso de una funcionalidad de construcción de negocios en respuesta directa a la confabulación de un modelo de IA.
Por lo basic, SoundsLice digitaliza las partituras de fotos o PDF y sincroniza la notación con grabaciones de audio o video, lo que permite a los músicos ver la música desplazándose mientras la escuchan. La plataforma también incluye herramientas para ralentizar la reproducción y practicar pasajes difíciles.
Adrian Holovaty, cofundador de Soundsliceescribió en una reciente publicación de weblog que el reciente proceso de desarrollo de características comenzó como un completo misterio. Hace unos meses, Holovaty comenzó a notar una actividad inusual en los registros de errores de la compañía. En lugar de cargas de partituras típicas, los usuarios enviaban capturas de pantalla de las conversaciones de ChatGPT que contenían tablatura ASCII: representaciones de texto simples de música de guitarra que parecen cadenas con números que indican posiciones de FRET.
«Nuestro sistema de escaneo no tenía la intención de apoyar este estilo de notación», escribió Holovaty en la publicación del weblog. «¿Por qué, entonces, estábamos siendo bombardeados con tantas capturas de pantalla de ASCII TAB CHATGPT? Estuve desconcertado durante semanas, hasta que me metí en Chatgpt».
Cuando Holovaty probó el chatGPT, descubrió la fuente de la confusión: el modelo AI estaba instruyendo a los usuarios que creen cuentas de SoundsLice y usen la plataforma para importar pestañas ASCII para reproducción de audio, una característica que no existía. «Nunca hemos apoyado a la pestaña ASCII; Chatgpt fue absolutamente mentirle a la gente», escribió Holovaty. «Y haciéndonos ver mal en el proceso, estableciendo falsas expectativas sobre nuestro servicio».
Cuando los modelos de IA como ChatGPT generan información falsa con aparente confianza, los investigadores de IA lo llaman «alucinación» o «confabulación. «El problema de los modelos de IA que confabulan información falsa ha afectado a los modelos de IA desde el lanzamiento público de Chatgpt en noviembre de 2022, cuando las personas comenzaron a usar erróneamente el chatbot como reemplazo para un motor de búsqueda.