La seguridad de los chatbots de IA para niños y adolescentes se enfrenta a la investigación de nosotros
 
                 
Un regulador estadounidense de siete compañías de tecnología está siendo probada por la forma en que sus chatbots de inteligencia synthetic (IA) interactúan con los niños.
La Comisión Federal de Comercio (FTC) solicita información sobre cómo las empresas monetizan estos productos y si tienen medidas de seguridad vigentes.
Los impactos de los chatbots de IA para los niños son un tema candente, con las preocupaciones de que las personas más jóvenes son particularmente vulnerables debido a que la IA puede imitar conversaciones y emociones humanas, a menudo presentándose como amigos o compañeros.
Las siete compañías, Alphabet, OpenAi, personaje.Ai, Snap, Xai, Meta y su subsidiaria Instagram, se han contactado para comentarios.
El presidente de la FTC, Andrew Ferguson, dijo que la investigación «nos ayudará a comprender mejor cómo las empresas de IA están desarrollando sus productos y los pasos que están tomando para proteger a los niños».
Pero agregó que el regulador aseguraría que «Estados Unidos mantenga su papel como líder mundial en esta nueva y emocionante industria».
El personaje. Ai dijo a Reuters que dio la bienvenida a la oportunidad de compartir información con los reguladores, mientras que Snap dijo que apoyó el «desarrollo reflexivo» de la IA que equilibra la innovación con seguridad.
Operai ha reconocido las debilidades en sus protecciones, señalando que son menos confiables en largas conversaciones.
La medida sigue a las demandas contra las empresas de IA por parte de familias que dicen que sus hijos adolescentes murieron por suicidio después de conversaciones prolongadas con chatbots.
En California, los padres de Adam Raine, de 16 años, son demandando a OpenAi Durante su muerte, alegando su chatbot, chatgpt, lo alentó a quitarse la vida.
Argumentan que ChatGPT validó sus «pensamientos más dañinos y autodestructivos».
Openai dijo en agosto que estaba revisando la presentación.
«Extendemos nuestras más profundas simpatías a la familia Raina durante este momento difícil», dijo la compañía.
Meta también ha enfrentado críticas después de que se reveló las pautas internas una vez que los compañeros de IA permitieron tener conversaciones «románticas o sensuales» con menores.
El Órdenes de la FTC Solicite información de las empresas sobre sus prácticas, incluida la forma en que desarrollan y aprueban los personajes, miden sus impactos en los niños y aplican restricciones de edad.
Su autoridad permite una amplia investigación de hechos sin lanzar una acción de cumplimiento.
El regulador cube que también quiere comprender cómo las empresas equilibran la creación de ganancias con salvaguardas, cómo se informan a los padres y si los usuarios vulnerables están adecuadamente protegidos.
Los riesgos con los chatbots de IA también se extienden más allá de los niños.
En agosto, Reuters informó sobre Un hombre de 76 años con discapacidades cognitivas, que murió después de caer en su camino para encontrarse con un bot Ai de Fb Messenger modelado en Kendall Jenner, que le había prometido un encuentro «actual» en Nueva York.
Los médicos también advierten de «AI Piosis» – Donde alguien pierde el contacto con la realidad después del uso intenso de chatbots.
Los expertos dicen que la adulación y el acuerdo integrados en modelos de idiomas grandes pueden alimentar tales delirios.
Opadai recientemente realizó cambios Para chatgpt, en un intento por promover una relación más saludable entre el chatbot y sus usuarios.
 
                       
                       
                       
                       
                       
                      