Meta a lansat marți noul său model AI, „3D Gen”, o inovație rapidă în generarea de imagini 3D. Acest model avansat poate transforma textul de intrare în imagini 3D de înaltă fidelitate în mai puțin de un minut.
Mai mult, sistemul poate aplica texturi și skin-uri noi atât pe imagini generate, cât și pe cele create de artiști, utilizând prompturi textuale.
Conform unui studiu recent al echipei de cercetare Meta Gen AI, 3D Gen nu numai că oferă texturi de înaltă rezoluție și hărți de materiale, dar suportă și randare bazată pe fizică (PBR) și capabilități de re-texturare generativă.
Echipa estimează un timp mediu de inferență de doar 30 de secunde pentru crearea modelului 3D inițial folosind modelul 3D AssetGen al Meta.
Utilizatorii pot apoi să rafineze textura modelului existent sau să o înlocuiască cu una nouă, ambele prin prompturi textuale, folosind Meta 3D TextureGen, proces care ar trebui să dureze nu mai mult de 20 de secunde suplimentare de inferență.
„Prin combinarea punctelor lor forte,” a scris echipa în rezumatul studiului, „3DGen reprezintă obiectele 3D simultan în trei moduri: în spațiu de vizualizare, în spațiu volumetric și în spațiu UV (sau textură).”
Echipa Meta a comparat modelul 3D Gen cu mai multe standarde din industrie și a evaluat fidelitatea prompturilor textuale, calitatea vizuală, detaliile texturii și artefactele. Imaginile generate de procesul integrat în două etape au fost preferate de anotații în 68% din cazuri față de cele generate de procesele într-o singură etapă.
Deși sistemul discutat în acest studiu este încă în dezvoltare și nu este pregătit pentru utilizarea publică, avansurile tehnice pe care le ilustrează ar putea fi transformatoare pentru numeroase discipline creative, de la efecte de jocuri și filme la aplicații VR.
Oferind utilizatorilor posibilitatea de a crea și edita conținut 3D generat rapid și intuitiv, această tehnologie ar putea reduce semnificativ bariera de intrare pentru astfel de activități. Efectul asupra dezvoltării jocurilor, de exemplu, ar putea fi considerabil.