Vermont tiene pocas barreras para el uso de la IA por parte de los abogados

Tribunal del condado de Grand Isle en North Hero. Foto de Glenn Russell/VTDigger

No es un complemento. Un abogado de New Hampshire que representa a un cliente divorciado emitió una declaración legal citando un caso judicial anterior. Pero cuando los jueces de la Corte Suprema de Vermont abordaron el caso del que hablaba, la historia no apareció por ninguna parte.

En la reunión de noviembre le preguntaron al abogado de dónde venía la historia.

«Su Señoría, mi cliente utilizó una IA, um, asistente», dijo el abogado.

El juez William Cohen, ahora retirado, respondió: «¿La segunda fuente es la IA? ¿Y no lo sabías?».

«No sé qué tiene que ver con eso», dijo el abogado. Dijo que su cliente se ofreció a redactar el escrito utilizando inteligencia.

La historia vino de «AI GPT o algo así», dijo más tarde. «Realmente no lo he usado, pero creo que es común».

Después del juicio, los jueces del tribunal más alto del estado castigaron al abogado por sus errores en el expediente judicial y le exigieron que proporcionara una copia de la transcripción en todos sus casos pendientes en la Corte Suprema de Vermont.

El caso arroja luz sobre cómo la inteligencia artificial puede obstaculizar el trabajo de los abogados y representar una amenaza para la integridad de un juicio. Para algunos funcionarios del sistema judicial de Vermont, el uso de la inteligencia artificial y las amenazas que plantea parecen inverosímiles y difíciles de predecir.

Anticipándose al crecimiento, los jueces estatales han comenzado a emitir directrices para el uso de la IA por parte de abogados o en el sistema judicial, pero existen pocos obstáculos reales. Y mientras algunos expertos ven la IA como una gran herramienta para los abogados, otros abogados tienen dificultades para utilizarla correctamente.

«La IA simplemente no es confiable, por lo que no es algo que volvería a usar, y no vale la pena el esfuerzo y el tiempo», dijo Thomas Lamar Enzor, abogado de Rutland durante 38 años.

Después de que Lamar Enzor intentó utilizar la IA en un caso judicial, dijo que nunca volvería a utilizarla. Usó una plataforma familiar, aunque no recuerda cuál, la primavera pasada cuando arrestó a un hombre acusado de conducir en estado de ebriedad en el condado de Bennington.

Lamar Enzor utilizó IA para ayudarle a redactar una moción que presentó al tribunal, dijo. Y la moción redactada por AI incluía rumores de otros casos judiciales. Lamar Enzor examinó el trabajo generado por IA y descubrió que los casos citados eran «todos los casos que he visto antes y los casos que he usado antes», dijo.

Pero no sabía que, si bien las referencias eran a casos judiciales reales, el contenido generado por IA en el memorando era una invención. Es un fenómeno llamado «pensamiento».

La jueza del Tribunal Superior del condado de Bennington, Jennifer Barrett, identificó cinco errores en la declaración de Lamar Enzor, según los registros judiciales. Casi siempre, los comentarios de Barrett contienen citas que no existen en las fuentes que cita. Barrett le permitió presentar una moción complementaria para corregir los errores y Lamar Enzor dijo que no sufrió otras lesiones.

Corte Suprema de Vermont. Foto de Natalie Williams/VTDigger

‘Una importante mejora energética’

A los abogados de Vermont se les permite usar discreción en su trabajo siempre que cumplan con las reglas de conducta profesional que se aplican a los abogados, dijo Teri Corsones, administradora de la corte estatal.

Si un cliente o juez cree que un abogado violó esas reglas al utilizar indebidamente la IA, puede presentar una queja ante la Junta de Conducta Profesional, dijo Corsones. La junta investiga acusaciones de mala conducta de los abogados y puede suspender la licencia de un abogado para ejercer la abogacía.

Kim Velk, directora ejecutiva del Colegio de Abogados de Vermont, dijo que era difícil decir si los abogados de Vermont están utilizando IA y cuántos. Pero es un tema importante de discusión entre los abogados, dijo Velk.

«La gente ha estado preocupada por decir: ‘La IA no va a reemplazar a los abogados, va a reemplazar a los abogados que no pueden usar la IA y a los abogados que sí la usan'», dijo Velk.

El grupo abrió el camino para organizar cursos sobre cómo los abogados pueden utilizar la IA de forma eficaz y beneficiosa. Esas lecciones provienen de Jared Correia, quien dirige una empresa en Massachusetts que asesora a firmas de abogados en todo el mundo.

Correia cree que la IA dará un verdadero impulso a los abogados. «Creo que es una gran mejora energética», dijo.

Al enseñar a los abogados cómo usar la IA, Correia dijo que explica que los abogados tienen que hacer el 10% del trabajo por adelantado para alimentar la información de la IA al caso. Así, pueden sentarse y dejar que la computadora haga el 80% del trabajo. Un abogado tiene que rehacer el 10% del trabajo al final para comprobarlo todo, dijo.

Correia dijo que pensaba que no lograría reemplazar a los abogados con una cara en pantalla que pudiera desafiar la ley.

En Vermont, gracias por esa posibilidad, pero los líderes de campo parecen inseguros de cómo se desarrollará el juego o si pueden hacer algo para detenerlo.

En 2024, el poder judicial de Vermont creó un comité de abogados y jueces para considerar cómo gestionar la IA. Pero después de examinar el asunto, los miembros del comité decidieron que no podrían impedir eficazmente que los abogados utilizaran la IA siempre que siguieran las reglas de conducta para abogados.

Como señalaron, los abogados deben ser independientes de sus clientes. Si un abogado proporciona información a un programa de inteligencia artificial sin la debida diligencia, está violando el derecho a la privacidad de su cliente, dijo Corsones.

Correia dijo que para mantener privada la información de los clientes, los abogados deben informatizar y mantener sus datos «seguros». Significa tomar precauciones como desactivar configuraciones que permitan a la IA aprender de la información que recibe, dijo Correia. Pero los abogados pueden hacer afirmaciones similares al consumidor medio basándose en la política de la empresa, dijo.

«A las empresas que están locas por estas cosas todo el tiempo no les importa la seguridad de los datos.

Velk dijo que cree que más acusados ​​se defenderán en los tribunales porque la IA facilitará la redacción y comprensión de los expedientes legales.

«No todo el mundo puede permitirse un abogado, eso es cierto; muy pocas personas pueden», dijo Velk. «No creo que la IA pueda usarse para obtener asesoramiento legal».

Corsones dijo que no ve eso como una amenaza a la imparcialidad del juicio. Los jueces siempre toman decisiones basándose en las pruebas del caso y los argumentos en el tribunal, según él, no cambian con el sentido común.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *