En los últimos años, la inteligencia artificial (IA) ha entrado con gran fuerza en el mundo profesional, y el campo del derecho no ha sido la excepción. Cada vez es más común ver a abogados, jueces y funcionarios que, en juzgados, despachos y dependencias públicas, utilizan herramientas digitales capaces de redactar textos, resumir documentos o expedientes e incluso proponer argumentos legales. Todo esto aparenta ahorrar tiempo y parece eficiente (1). Sin embargo, no todo es tan positivo como parece. Junto con estas ventajas ha surgido un fenómeno preocupante conocido como workslop.
El término workslop se refiere a la producción masiva de contenidos de baja calidad generados con apoyo de la IA. Son textos que aparentan ser correctos o profesionales, pero que en realidad contienen errores, información falsa, citas inexistentes y razonamientos jurídicos defectuosos. En otras palabras, datos “fake” que no resisten un análisis serio (2).
Este problema no es menor. En el ámbito del derecho, que afecta directamente a toda la sociedad, el workslop puede causar daños reales y graves. Expedientes, escritos procesales e incluso sentencias pueden verse comprometidos si se basan en información inventada por una máquina. Imagínese un expediente con argumentos falsos: la justicia misma estaría en riesgo (3).
Desde el punto del derecho intelectual (también conocido como derechos de autor, es decir, el conjunto de normas que protege las creaciones originales del intelecto humano), el uso de IA plantea varias preguntas relevantes e importantes paradigmas actuales. Siendo una de las principales: ¿quién es responsable cuando un contenido generado o asistido por inteligencia artificial causa daños o perjuicios?
En la mayoría de los países de América Latina, las legislaciones coinciden en un punto fundamental que refiere que solo las creaciones humanas tienen protección de autor (4). Es decir, una obra generada exclusivamente por una máquina no califica ni puede ser considerada hasta este momento como “obra protegida”, pero esto no resuelve el problema del workslop, ya que el daño no proviene de la titularidad de la obra, sino de su uso negligente y descuidado (5).
Para muestra basta un botón. Un caso famoso que sacudió al mundo legal ocurrió en Estados Unidos y fue difundido por medios como The New York Times. Abogados presentaron escritos judiciales llenos de citas y precedentes inexistentes, generados por ChatGPT, la herramienta de IA creada por OpenAI (6).
El tribunal detectó que los casos citados no existían y el Juez sancionó a los abogados por falta de diligencia profesional y por no verificar los elementos básicos de un escrito legal. Este caso ilustra claramente el workslop legal: textos que se muestran bien redactados en apariencia, pero jurídicamente falsos (7).
En América Latina ya se han reportado situaciones muy similares, aunque de menor difusión pública. Se han identificado escritos administrativos y judiciales con fundamentos erróneos, artículos legales mal citados o jurisprudencias inexistentes, producto del uso acrítico de herramientas de IA sin revisión básica (8).
En sistemas judiciales sobrecargados, este tipo de prácticas no solo entorpece los procesos, complica más las cosas y puede vulnerar el derecho humano de acceso a la justicia pronta y expedita (9).
Ante este panorama, resulta necesario analizar posibles vías de responsabilidad legal para las empresas que desarrollan y comercializan sistemas de inteligencia artificial. En lenguaje sencillo: “quien paga los platos rotos” Una opción es acudir a la responsabilidad civil objetiva, que no necesita de probar culpa, si una empresa pone en el mercado una herramienta de IA que, por su diseño o falta de advertencias claras, induce a errores graves en contextos sensibles como el derecho podría exigírsele responsabilidad por los daños causados (10).
Otro recurso legal posible es el deber de información y advertencia clara sobre lo que la IA no hace bien como inventar datos o “alucinaciones” información falsa. Esto es parte de su deber profesional pero si una empresa no cumple adecuadamente con este deber, podría ser responsable por omisión (11).
Asimismo, considero que puede plantearse la corresponsabilidad, lo cual implica mayor atención y revisión cuando el abogado checa todo minuciosamente siendo su deber profesional, pero la empresa tampoco puede promocionar su herramienta como “perfecta” para usos legales sin controles adecuados (12).
A nivel latinoamericano, el desafío principal es normativo, ya que la mayoría de los países aún no cuentan con regulaciones específicas sobre inteligencia artificial, pero podemos usar y aplicar reglas que ya existen, como la buena fe, la responsabilidad por productos defectuosos y la protección de consumidores y usuarios de servicios digitales (13). Además de que los poderes judiciales pueden crear jurisprudencia como ya se esta haciendo y publicar guías claras sobre como se debe usar la IA en documentos oficiales (14).
En el ámbito local, será clave que los poderes judiciales emitan y utilicen lineamientos claros sobre el uso de IA en la elaboración de escritos y resoluciones además de realizar una eficiente capacitación de jueces, abogados y servidores públicos como una labor indispensable para evitar que el workslop se normalice.(15)
En conclusión, la inteligencia artificial puede ser una herramienta valiosa para el derecho, pero si la usamos con cuidado, ya que su uso irresponsable, desmedido y abusivo genera riesgos reales.
El workslop demuestra que no basta con adoptar tecnología como la IA ya que es necesario regularla, supervisarla y asignar responsabilidades claras, tanto a quienes la utilizan como a quienes la desarrollan, solo así sacaremos lo bueno y mejor de sus beneficios sin comprometer la calidad, la ética y la confianza en la seguridad jurídica.
Fuentes:
(1) Dentons. (2025). AI «workslop,» the new typo: Can a culture of quality guide legal teams using AI? https://www.dentons.com/en/insights/articles/2025/september/26/ai-workslop-the-new-typo-can-a-culture-of-quality-guide-legal-teams-using-ai
(2) Hancock, J. T., & Niederhoffer, K. (2025). AI-generated “workslop” is destroying productivity. Harvard Business Review. https://hbr.org/2025/09/ai-generated-workslop-is-destroying-productivity
(3) Ho, D. E., y Suzgun, M. (2024). Perfiles de alucinaciones legales en grandes modelos lingüísticos. Oxford Journal of Legal Analysis.
(4) Vázquez, Y. P., & Bardelli, S. M. (2025). El derecho y la tecnología en la era de la inteligencia artificial (IA). Editorial Autores de Argentina.
(5) Herrera, R. (2022). Aspectos legales de la inteligencia artificial: Personalidad jurídica de los robots, protección de datos y responsabilidad civil. Dikynson.
(6) Castel, P. K. (2023). Mata v. Avianca, Inc., 678 F. Supp. 3d 443 (S.D.N.Y.).
(7) Charlotin, D. (2025). AI hallucination cases database. https://www.damiencharlotin.com/hallucinations/
(8) Loaiza Moreno, J. D., Soto Soto, F. F., & Hoyos Escaleras, Á. M. (2024). Revolucionando la justicia: El impacto de la inteligencia artificial en el derecho penal. Estudios y Perspectivas Revista Científica y Académica, 4(3), 2155–2174.
(9) Ponce Solé, J. (2023). Regulación de la inteligencia artificial en Europa y su impacto en el derecho administrativo. Revista de Administración Pública.
(10)Bashayreh, M., Sibai, F. N., & Tabbara, A. (2021). Artificial intelligence and legal liability: Towards an international approach of proportional liability based on risk sharing. Information & Communications Technology Law, 30(2), 169-192.
(11) Truli, E. N. (2023). Non-contractual liability in the context of artificial intelligence: The long way to new EU legislative tools. European Review of Private Law, 31(1), 35–56.
(12) Raposo, V. L. (2022). Ex Machina: Preliminary critical assessment of the European draft act on artificial intelligence. International Journal of Law and Information Technology, 30(4), 385–397.
(13) Fundación Thomson Reuters. (2025). AI regulation in Latin America. https://www.trust.org/resource/regulatory-mapping-on-artificial-intelligence-in-latin-america/
(14) UNESCO. (2024). La IA y el estado de derecho: Fortalecimiento de la judicatura. https://www.unesco.org/en/artificial-intelligence/rule-law/mooc-judges
(15) Ellamey, Y., & Elwakad, A. (2023). La responsabilidad penal de los sistemas de inteligencia artificial: Un estudio analítico prospectivo.
(16) Suzgun, M., et al. (2024). Hallucination-free? Assessing the reliability of leading AI legal research tools. Journal of Empirical Legal Studies.



Sé el primero en comentar