Johannesburg-High-Court-South-Gauteng-High-Court-Court-Judgement-3-1024x739.jpg


Un caso judicial sudafricano llegó a los titulares por motivos equivocados en enero de 2025. El equipo jurídico de Mavundla contra MEC: Departamento de Gobierno Cooperativo y Asuntos Tradicionales KwaZulu-Natal y otros se había basado en una jurisprudencia que simplemente no existía. Había sido generado por ChatGPT, un chatbot de inteligencia synthetic generativa (IA) desarrollado por Abierto AI.

Sólo dos de los nueve casos que el equipo authorized presentó al Tribunal Superior eran genuinos. El resto fueron “alucinaciones” fabricadas por la IA. El tribunal calificó esta conducta “irresponsable y poco profesional” y remitió el asunto al Consejo de Práctica Jurídica, el organismo estatutario que regula a los profesionales del derecho en Sudáfrica, para su investigación.

No period la primera vez que los tribunales sudafricanos se enfrentaban a un incidente de este tipo. Parker contra Forsyth en 2023 También se ocupó de la jurisprudencia falsa producida por ChatGPT. Pero el juez fue más indulgente en ese caso y no encontró ninguna intención de engañar. El fallo de Mavundla marca un punto de inflexión: los tribunales están perdiendo la paciencia con los profesionales del derecho que utilizan la IA de forma irresponsable.

Somos académicos del derecho que hemos estado haciendo investigación sobre el uso creciente de la IA, en explicit la IA generativa, en la investigación y la educación jurídicas. Si bien estas tecnologías ofrecen herramientas poderosas para mejorar la eficiencia y la productividad, también presentan serios riesgos cuando se usan de manera irresponsable.

Los aspirantes a profesionales del derecho que hacen mal uso de las herramientas de inteligencia synthetic sin la orientación adecuada o una base ética corren el riesgo de sufrir graves consecuencias profesionales, incluso antes de que comiencen sus carreras. Las facultades de derecho deberían dotar a los estudiantes de las habilidades y el criterio necesarios para utilizar las herramientas de inteligencia synthetic de manera responsable. Pero la mayoría de las instituciones siguen sin estar preparadas para el ritmo al que se está adoptando la IA.

Muy pocas universidades tienen políticas formales o capacitación en IA. Los estudiantes se quedan sin guía a través de este terreno en rápida evolución. Nuestro trabajo exige un enfoque proactivo y estructurado para la educación en IA en las facultades de derecho.

Cuando la tecnología se convierte en una responsabilidad

El abogado en Mavundla caso admitido no había verificado las citas y se basó en la investigación realizada por un colega junior. Ese colega, un candidato a abogado, afirmó haber obtenido el materials de una herramienta de investigación en línea. Si bien negó haber usado ChatGPT, el patrón coincidió con incidentes globales similares en los que los abogados, sin saberlo, presentaron sentencias generadas por IA.

En el caso estadounidense de 2024 de Park contra Kimla abogada citó jurisprudencia inexistente en su escrito de respuesta, que admitió que se generó mediante ChatGPT. En el caso canadiense de 2024 de Zhang contra Chenel abogado presentó un aviso de solicitud que contenía dos autoridades de caso inexistentes fabricadas por ChatGPT.

ANUNCIO

CONTINUAR LEYENDO A CONTINUACIÓN

El tribunal de Mavundla fue inequívoco: no importa cuán avanzada sea la tecnología, los abogados siguen siendo responsables de garantizar que cada fuente que presenten sea precisa. La presión de la carga de trabajo o la ignorancia de los riesgos de la IA no son defensa.

El juez también criticó al abogado supervisor por no verificar los documentos antes de archivarlos. El episodio subrayó un principio ético más amplio: los abogados experimentados deben formar y supervisar adecuadamente a sus colegas más jóvenes.

La lección aquí se extiende mucho más allá de un bufete de abogados. La integridad, la precisión y el pensamiento crítico no son extras opcionales en la profesión jurídica. Son valores fundamentales que deben enseñarse y practicarse desde el principio, durante la educación jurídica.

El aula es la primera sala del tribunal.

El caso Mavundla debería servir de advertencia a las universidades. Si los profesionales del derecho experimentados pueden caer en trampas de la IA en materia de derecho, los estudiantes que aún están aprendiendo a investigar y razonar también pueden hacerlo.

Las herramientas de IA generativa como ChatGPT pueden ser aliados poderosos: pueden resumir casos, redactar argumentos y analizar textos complejos en segundos. Pero también pueden fabricar información con confianza. Porque los modelos de IA no siempre “saben” cuándo están equivocadoproducen texto que parece autorizado pero que puede ser completamente falso.

Para los estudiantes, los peligros son dobles. En primer lugar, una dependencia excesiva de la IA puede obstaculizar el desarrollo de habilidades de investigación críticas. En segundo lugar, puede dar lugar a graves faltas académicas o profesionales. Un estudiante que envíe contenido fabricado con IA podría enfrentarse a medidas disciplinarias en la universidad y a daños a su reputación que le acompañarán en su carrera jurídica.

En nuestro artículo sostenemos que, en lugar de prohibir por completo las herramientas de inteligencia synthetic, las facultades de derecho deberían enseñar a los estudiantes a usarlas de manera responsable. Esto significa desarrollar una “alfabetización en IA”: la capacidad de cuestionar, verificar y contextualizar la información generada por la IA. Los estudiantes deben aprender a tratar los sistemas de IA como asistentes, no como autoridades.

En la práctica jurídica sudafricana, la autoridad tradicionalmente se refiere a fuentes reconocidas, como la legislación, los precedentes judiciales y los comentarios académicos, que los abogados citan para respaldar sus argumentos. Se accede a estas fuentes a través de bases de datos e informes jurídicos establecidos, un proceso que, si bien lleva mucho tiempo, garantiza la precisión, la rendición de cuentas y el cumplimiento del estado de derecho.

ANUNCIO PUBLICITARIO:

CONTINUAR LEYENDO A CONTINUACIÓN

De las facultades de derecho a los tribunales

Los educadores jurídicos pueden incorporar conocimientos de inteligencia synthetic en cursos existentes sobre metodología de investigación, ética profesional y redacción jurídica. Los ejercicios podrían incluir la verificación de resúmenes generados por IA frente a juicios reales o el análisis de las implicaciones éticas de confiar en argumentos producidos por máquinas.

Enseñar el uso responsable de la IA no se trata simplemente de evitar la vergüenza en los tribunales. Se trata de proteger la integridad del propio sistema de justicia. Como se vio en Mavundla, el uso acrítico de la IA por parte de un candidato a abogado dio lugar a una investigación profesional, un escrutinio público y un daño a la reputación de la firma.

Los riesgos financieros también son reales. Los tribunales pueden ordenar a los abogados que paguen las costas de su bolsillo cuando se produzca una falta profesional grave. En la period digital, donde las sentencias judiciales y los informes de los medios se difunden instantáneamente en línea, la reputación de un abogado puede colapsar de la noche a la mañana si se descubre que se basó en materials de inteligencia synthetic falso o no verificado. También sería beneficioso que los tribunales estuvieran capacitados para detectar casos falsos generados por IA.

El camino a seguir

Nuestro estudio concluye que la IA llegó para quedarse, al igual que su uso en la legislación. El desafío no es si la profesión jurídica debería utilizar la IA, sino cómo. Las facultades de derecho tienen una oportunidad crítica y un deber ético de preparar a los futuros profesionales para un mundo donde la tecnología y el juicio humano deben trabajar juntos.

La velocidad y la conveniencia nunca podrán reemplazar la precisión y la integridad. A medida que la IA se convierte en una parte rutinaria de la investigación jurídica, los abogados del mañana deben estar capacitados no sólo para incitar, sino también para pensar.

Jacques Matthéeprofesor titular, Universidad del Estado Libre y Parada grisProfesor Titular del Departamento de Derecho Mercantil de la Facultad de Derecho, Universidad del Estado Libre

Este artículo se republica desde La conversación bajo una licencia Inventive Commons. Lea el artículo authentic.

Siga las noticias detalladas sobre finanzas y negocios de Moneyweb en WhatsApp aquí.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *