Une révélation troublante a été faite par l'Université de Stanford concernant Laion-5B, une base de données d'images utilisée pour entraîner des intelligences artificielles génératives, y compris l'outil Stable Diffusion. D'après l'étude, parue le 20 décembre, cette base contenait plus d'un millier d'images pédopornographiques.