En un caso muy mediático, el juez del Tribunal de Apelaciones del Undécimo Circuito de Estados Unidos, Kevin Newsom, utilizó por primera vez chatbots, como ChatGPT, para ayudar a interpretar el "significado común" de un término legal.

Tribunal, Ley, Sentencia

Nota de la imagen: La imagen fue generada por IA, el proveedor de servicios de licencias de imágenes es Midjourney

El caso involucraba un robo a mano armada cometido por Joseph Deleon, y el punto de controversia era si el hecho de que Deleon apuntara con un arma al cajero constituía una "restringir el movimiento" del cajero.

La mayoría de los jueces opinaron que este acto debía considerarse como "restringir el movimiento", por lo que mantuvieron la sentencia más severa contra Deleon. Sin embargo, aunque el juez Newsom estuvo de acuerdo con la decisión de la mayoría, coincidió con la jueza Robin Rosenbaum en que las decisiones judiciales anteriores sobre "restringir el movimiento" eran erróneas. Señaló que simplemente apuntar con un arma a alguien, sin contacto físico ni restricción real de su libertad, no debería considerarse como "restringir el movimiento". Argumentó que el término debería entenderse en su significado común y usual.

Para encontrar este "significado común", el juez Newsom recurrió a un método inusual: planteó diez veces la misma pregunta a tres conocidos chatbots —GPT-4, Claude y Gemini—: "¿Cuál es el significado común de 'restringir el movimiento'?" En su opinión, Newsom explicó que, aunque las respuestas de los diferentes chatbots variaron en estructura y redacción, todas giraban en torno a un tema común. Descubrió que las respuestas de estos robots coincidían en que "restringir el movimiento" requiere una fuerza sustancial aplicada a través del contacto físico o de otras herramientas.

Inicialmente, Newsom se sintió "sorprendido" por las sutiles diferencias entre las respuestas, pero al examinarlo más a fondo, consideró que estas diferencias eran esperables, incluso positivas, ya que reflejan la forma en que la gente usa el lenguaje en la vida cotidiana. Destacó que el lenguaje es orgánico y que cierta confusión es normal. Considera que los chatbots pueden ser un complemento valioso de las herramientas legales tradicionales, aunque no son perfectos, no deben ser ignorados.

Newsom también señaló que, aunque los chatbots pueden ayudar en la interpretación de términos legales, esto no significa que la elaboración de leyes pueda automatizarse. Enfatizó que la IA no puede reemplazar las herramientas de interpretación tradicionales, como los diccionarios y las normas semánticas, pero que pueden desempeñar un papel auxiliar importante en la búsqueda del significado común.

Puntos clave:

1. 🤖 El juez Kevin Newsom utilizó chatbots para explorar el "significado común" de un término legal, ofreciendo una nueva perspectiva al caso.

2. ⚖️ El caso se centra en si el acto de un robo a mano armada constituye "restringir el movimiento", y el juez Newsom opina que simplemente apuntar con un arma no debería considerarse como tal.

3. 📚 Newsom cree que los chatbots pueden complementar las herramientas legales tradicionales, ayudando a comprender mejor el uso cotidiano del lenguaje.