Cada vez son más los casos en los que las mal llamadas «alucinaciones» de algoritmos generativos como
ChatGPT, provocan casos suficientemente provocativos como para, como mínimo, reflexionar sobre el tema, y en algunos casos, para directamente generar responsabilidades legales.
Eso es lo que ha pensado
Max Schrems, el abogado y activista austríaco que ha puesto en jaque ya en varias ocasiones a compañías norteamericanas y a los mismísimos acuerdos de intercambio de datos con los Estados Unidos (diciendo algo tan razonable como que un país en el que existe una NSA no puede garantizar en ningún caso los derechos de nadie), y que ha demandado a OpenAI por inventarse información falsa sobre sus usuarios, algo que OpenAI ha admitido claramente que no puede corregir y que tiene muchas posibilidades, a pesar de ser en muchos casos información inventada, de vulnerar la privacidad.
La circunstancia es, curiosa: ¿puede vulnerar tu privacidad que alguien se invente algo sobre ti? Podría, obviamente, suponer una difamación, como en el caso del profesor que se encontró con que
ChatGPT decía que había sido protagonista de un escándalo de acoso sexual, pero⦠¿una infracción de la privacidad?
La respuesta requiere una cierta reflexión.