Tomado de Red Uno
Vocal explica uso de inteligencia artificial durante una audiencia – Red Uno de Bolivia

Uno de los vocales de la Sala Constitucional Cuarta del Tribunal Departamental de Justicia -donde ayer desarrolló una audiencia en un caso contra periodistas, utilizando inteligencia artificial- señaló que recurrieron a esta herramienta legalmente y por el almacenamientos de datos y documentos. Aseguró que el uso del chatGPT ayudará a tener una justicia más rápida, eliminando la mora procesal.
«La gente, el ciudadano quiere celeridad en sus resoluciones Una justicia que llegue tarde no sirve para absolutamente nada. Lo que encuentras en libros, lo encuentras también en este tipo de chat o de inteligencia artificial, como se denomina. Como administradores de justicia, nuestra idea no es plantearle los problemas o la problemática a la máquina para que nos resuelva el conflicto, sino estamos nosotros, los seres humanos, los profesionales, los peritos en el tema», afirmó vocal de la Sala Constitucional Cuarta, Jimmy López Rojas.
Además, aseguró que el uso del chatGPT está en el marco de lo legal y en base a la Constitución.
«Esto solamente ha sido un globo de ensayo, parte de una propuesta. La Constitución Política del Estado, el plan de descongestionamiento permite la incorporación de tecnologías para poder acelerar y mejorar la administración de justicia», agregó.
La audiencia de amparo constitucional se realizó en el caso de tres periodistas que están procesados por una publicación en redes sociales sobre una denuncia de violencia familiar, «sin tomar en cuentas las pruebas presentadas», aseguran representantes de periodistas.
«Estamos asombrados por la situación, lo que ocurrió ayer con la audiencia donde le consultaron a la inteligencia artificial, cuál era la sanción que deberían darnos los vocales de la Sala Cuarta», dijo Marco Zabala, uno de los periodistas procesados.
Sobre el caso, explicaron que la propia demandante fue quien les entregó las fotografías para denunciar las agresiones que recibió y ahora exige que las borran mediante un proceso penal.
«Nosotros hemos recibido de parte de la víctima estas fotografías, en ningún momento mostramos el rostro, tampoco decíamos nombres. Además de todo, deberíamos haber sido sancionados por la Ley de Imprenta y no consultándole a un robot», apuntó.
Asimismo, el gremio cuestiona el uso de esta modalidad en un proceso contra la prensa.
«Los vocales no debieron hacer eso. Un vocal que asume un cargo así tiene que tener la idoneidad, el conocimiento suficiente como para poder actuar en este tipo de situaciones ¿Cómo va a estar consultando a la inteligencia artificial que no tiene conocimiento de muchas normativas, por ejemplo la 348 y la Ley de Imprenta? Lo consideramos incorrecto. La demandante tiene todo el derecho con el tema de la acción de privacidad, de pedir que se saque la fotografía si es que no está de acuerdo. Nosotros estamos cuestionando el procedimiento, ¿Cómo se va a acudir a un robot para que les enseñe a ellos?», afirmó Roberto Méndez, de la Asociación de Periodistas de Santa Cruz.
El representante también observó que la pregunta hecha al chatGPT no estuvo formulada correctamente.
«Se los ha satanizado a los periodistas, cuando lo único que hicieron fue en honor a que nosotros los periodistas tenemos que defender la vida, publicar una información de una mujer que había sido golpeada por una persona. Estamos hablando del derecho a la vida, a la integridad personal y eso fue lo que hicieron ellos», agregó Méndez.
A su vez, abogados consideran que la plataforma de Inteligencia Artificial, chatGPT, es un programa para almacenar datos y documentos que ayudan a los juristas en audiencias.
«Lo están utilizando, me parece bien porque es una forma de condensar la información de línea jurisprudencial. Es un procesador que (acelera) lo que nosotros haríamos en dos, tres o cuatro días con tanta información que tenemos en el aire. Estos procesadores, por eso se llama inteligencia artificial, lo resumen y sacan de todos lados», afirmó Félix Oroz, vicepresidente del Colegio de Abogados.
En todo caso, remarcan que debe haber un «control de calidad».
«Ese producto que sale de inteligencia artificial tiene que tener un control de calidad por el que lo vaya a utilizar, especialmente si lo va a utilizar un juez», complementó.
Sin embargo, señalan que no existe ninguna circular que autorice el uso de esta innovativa modalidad para este tipo de situaciones.
«No he tenido conocimiento de ninguna circular, pero todo esto se reconduce bajo lo que se llama el Principio de la sana crítica; todo será ilícito o no será correcto si se utiliza como único mecanismo», comentó el abogado Fabio Joffre.
APLP