+ 34 91 577 98 19 despacho@aledralegal.com

Chatbots: ¿Quién responde?

por | Nov 6, 2018 | Javier Pascual, LegalTech

Los chatbots son programas informáticos (software) diseñados para interactuar con quien los está utilizando. Existen muchos tipos de chatbot y no hay una definición clara, sin embargo, podemos destacar 3 tipos básicos de chatbot:

  • Estilo formulario: este tipo de chatbot se caracteriza por llevar las riendas de la interacción con el usuario. El chatbot es quien adopta una posición proactiva y formula preguntas o propone opciones para que el usuario vaya avanzando guiado por el chatbot. Un claro ejemplo es Akinator, aquel juego en el que, respondiendo a una serie de preguntas, la máquina es capaz de adivinar el personaje que ha pensado previamente el usuario. En este juego, la máquina hace preguntas, de más genérica a más específica para ir descartando posibilidades, hasta finalmente dar con la respuesta prefijada según las contestaciones del usuario.

 

  • Estilo pregunta-respuesta: en estos casos, el programa ha sido preparado con multitud de posibles preguntas y se le han ido asignando distintas respuestas a cada pregunta. Es decir, ante un input responden con un output (una respuesta predefinida específica). Se trata simplemente de un programa en el que un programador ha establecido que ante determinadas preguntas, el software ofrezca respuestas (if <pregunta X> then <respuesta X>). Si un usuario realiza una pregunta que no se ha insertado en el software, no habrá respuesta. Estos chatbots pueden retener información e ir más allá de input-output individuales. Por ejemplo, si le dices tu nombre, siempre te llamará por tu nombre.

 

  • Estilo Inteligente: finalmente, existen otros chatbots más avanzados que, gracias a la inteligencia artificial (IA), no sólo ofrecen una respuesta predefinida por el programador, sino que puede buscar esta respuesta en otras fuentes de información (repositorios, periódicos, páginas web, boletines oficiales, etcétera) o incluso ofrecer probabilidades de que esa respuesta sea la acertada.

 

En los 3 tipos de chatbot, el programa informático está reemplazando el trabajo que antes realizaba una persona.

Por tanto, surge la siguiente pregunta: ¿dónde recae la responsabilidad que antes recaía sobre una persona? En caso de respuestas erróneas que generen daños y perjuicios ¿quién responde? ¿Caben exenciones de responsabilidad- disclaimers-?

 

Responsabilidad de un software

Es difícil sostener que, en caso de producir el software algún daño o perjuicio a un usuario, no exista responsabilidad alguna. Si bien el derecho penal es muy proteccionista y garantista respecto del presunto culpable (principio de presunción de inocencia) y, todo lo no previsto expresamente por el Código Penal no es delito (artículo 4.2 CC), no ocurre así en el derecho civil donde el artículo 1902 el Código Civil (CC) indica que “el que por acción u omisión causa daño a otro, interviniendo culpa o negligencia está obligado a reparar el daño causado”.

Los artículos posteriores del CC se refieren a supuestos concretos de responsabilidad por actos impropios, como la responsabilidad de los padres por los daños de los hijos, los dueños de un establecimiento sobre los daños de sus empleados, los poseedores de animales por los perjuicios de éstos, etcétera.

Si bien el CC no se refiere al supuesto de responsabilidad de los programadores de software o IA sobre los perjuicios causados por estos, parece razonable aplicar analógicamente el principio del artículo 1902 CC a estos supuestos. Así lo permite el propio CC en su artículo 4, al indicar que “procederá la aplicación analógica de las normas cuando éstas no contemplen un supuesto específico, pero regulen otro semejante entre los que se aprecie identidad de razón”.

Algunos ejemplos de estos daños o perjuicios son fallos de indicaciones de GPS, como la mujer belga que acabó a 1400 kilómetros del destino que introdujo en el GPS, la reserva de un billete en fecha distinta a la indicada, la programación en momento o características erróneas de una transferencia bancaria o de la publicación de alguna noticia.

 

Cláusulas limitativas o exonerativas de responsabilidad en chatbots: disclaimers

Un diclaimer es una cláusula de limitación o exoneración de responsabilidad. Es común encontrarlas en Términos y Condiciones de Uso o Condiciones Generales de Contratación de plataformas digitales, programas informáticos o SaaS/IaaS/PaaS y pueden ser más o menos amplias.

Podemos distinguir 2 categorías de disclaimer, según 2 criterios distintos:

  1. Disclaimer limitativo o exonerativo de responsabilidad
  2. Disclaimer en relaciones Business-to-Consumer (B2C) o Business-to-Business (B2B)

Una cláusula que limita la responsabilidad por fallos técnicos en el chatbot puede ser perfectamente válida, pero si exonera totalmente de responsabilidad a una de las partes podríamos estar una cláusula nula por ser contraria al artículo 1256 del Código Civil: “la validez y el cumplimiento de los contratos no pueden dejarse al arbitrio de uno de los contratantes”. Así lo establece el artículo 8.1 de la Ley 7/1998 de Condiciones Generales de Contratación (LCGC), que aplica a todas las cláusulas predispuestas cuya incorporación al contrato sea impuesta por una de las partes.

Por tanto, una exoneración total, desde el punto de vista de fallos técnicos de la herramienta, es difícilmente aceptable.

Por otro lado, hemos de distinguir si estamos ante una relación B2C o B2B. La inclusión en una u otra categoría dependerá de si la herramienta está enfocada a uno u otro tipo de sujeto. La Ley General para la Defensa de Consumidores y Usuarios (LGDCU) establece que “son consumidores o usuarios las personas físicas que actúen con un propósito ajeno a su actividad comercial, empresarial, oficio o profesión”. Por tanto, sería recomendable establecer una cláusula- con carácter previo a la utilización del software- indicando que “al aceptar las presentes condiciones, el usuario reconoce que actúa dentro de su ámbito profesional o empresarial, no teniendo en ningún caso la condición de consumidor o usuario a los efectos de la LGDCU”.

Es importante salirse del marco de la LGDCU pues el principio de la autonomía de la voluntad goza de mayor acogida en las relaciones B2B. Así, por ejemplo, las cláusulas abusivas, a los efectos de la LGDCU y la LCGC, no tienen cabida en las relaciones B2C.

Por tanto, en una relación B2B, un disclaimer exonerativo de responsabilidad tendría mayor justificación que en una relación B2C.

No obstante, nos hemos referido en los párrafos anteriores a cláusulas de limitación o exoneración de responsabilidad por fallos técnicos del software, pero no fallos de contenido, es decir, por respuestas incorrectas. Es decir, que las preguntas y respuestas introducidas por el programador son erróneas. Imaginemos el caso de un software que responde a preguntas en el área legal, y se le pregunta por el plazo de contestación a un escrito determinado. El software nos indica que tenemos 30 días para contestar y el plazo real era de 20 días naturales.

En estos casos, la solución dependerá de la consideración o no del software como asesoramiento jurídico. Así, si no se considera asesoramiento jurídico, no habría problema con el disclaimer. Pero, si se tratase de la prestación de un servicio jurídico, el desarrollador o dueño del software (jurídicamente responsable) estaría sometido a toda la normativa profesional y deontológica, y respondería por los daños y perjuicios cometidos por dolo o negligencia (art. 78 EGAE).

Lo mismo ocurriría en el caso de chatbots en otras áreas profesionalizadas. Además, como ya se comentó en otro post, esto podría considerarse también un delito de intrusismo si el servicio no es prestado o el software no ha sido “alimentado” por los profesionales de dicho sector.

 

0 comentarios

CAtegorías