StructLDM es un modelo de difusión latente estructurado para aprender a generar cuerpos humanos 3D a partir de imágenes 2D. Es capaz de generar cuerpos humanos diversos y visualmente consistentes desde diferentes perspectivas, y admite un nivel de control y edición considerable, como la generación combinada y la edición de ropa local. El modelo logra la generación y edición independientes de la ropa sin necesidad de tipo de ropa o máscaras. El proyecto fue presentado por Tao Hu, Fangzhou Hong y Ziwei Liu del S-Lab de la Universidad Tecnológica de Nanyang, y el artículo correspondiente se publicó en ECCV 2024.