ComfyUI & IA générative :
de nouveaux outils
pour l’architecte
La génération d’images par intelligence artificielle franchit un cap décisif pour la pratique architecturale. Des outils comme ComfyUI permettent aujourd’hui de construire des chaînes de traitement sophistiquées — render photoréaliste, transfert de style, recomposition d’ambiance — en connectant visuellement des nœuds de traitement. Ce billet présente les objectifs de la session exploratoire, les modèles employés, et les cas d’usage concrets testés.
Objectifs
Qu’est-ce que l’on cherche à faire ?
L’ambition de cet atelier est de replacer l’IA générative dans des situations concrètes de travail de projet : partir d’une image existante — esquisse, vue 3D, référence photographique — et la transformer de façon contrôlée pour produire des rendus convaincants, des ambiances réalistes, ou des planches de concours.
ComfyUI s’impose ici comme l’environnement de prédilection : contrairement à des interfaces comme Midjourney, il offre une maîtrise totale du pipeline. Chaque étape est visible, paramétrable, reproductible. On peut injecter des images de référence, contrôler la diffusion, chaîner des modèles spécialisés.
Les cas testés couvrent cinq grandes familles de besoins :
Transformer une vue 3D filaire ou une esquisse architecturale en photographie réaliste, en conservant la géométrie et les proportions du projet.
Conversion d’un modèle 3D en image photoréaliste. Prompt type : change image 1 to realistic photograph.
Génération de vues alternatives d’un bâtiment à partir d’une image de référence, avec choix du point de vue caméra.
Insertion de mobilier ou d’éléments extérieurs dans une scène existante, avec gestion de l’échelle, de l’orientation et de la lumière.
Transfert de texture depuis une image photographique vers un rendu (ex. pavé traditionnel sur une façade), avec blend sans couture.
Modification de l’éclairage d’une scène intérieure ou extérieure — heure du jour, ambiance lumineuse — via modèle spécialisé.
Les modèles utilisés
Cas d’usage ComfyUI
Prompts de référence — workflows image-to-image
Voici les prompts et intentions testés dans les différents workflows ComfyUI. Chaque entrée correspond à un nœud de prompt dans le pipeline ou à une instruction donnée au modèle de diffusion.
Du modèle 3D à la photographie réaliste
À partir d’une vue filaire ou d’un rendu 3D de base, le modèle est guidé pour produire une image photoréaliste en conservant la structure de l’architecture.
Insertion de mobilier depuis plusieurs sources
Combiner plusieurs images de référence (scène + mobilier) pour composer une nouvelle image cohérente en termes d’échelle, d’orientation et d’éclairage.
Transfert de texture depuis une référence photographique
Appliquer la texture d’un matériau photographié in situ (pavé, pierre, enduit) à un rendu de projet. Note importante : intégrer des éléments remarquables comme les fenêtres pour garder l’échelle cohérente.
Cas d’usage — IA multimodale (Google Gemini / Nano to Banana)
Prompts avancés pour la représentation architecturale
Une seconde famille d’outils a été explorée : les modèles de génération multimodaux accessibles via des interfaces en ligne (Google Gemini, Nano to Banana). Ces outils permettent de travailler directement depuis une photographie ou une image de plan, sans pipeline ComfyUI. Les prompts sont plus longs et plus narratifs, car le modèle doit comprendre à la fois le type de représentation attendue et les contraintes stylistiques.
De la photo à la vue isométrique 3D
Transformer une photographie de bâtiment existant en représentation isométrique stylisée, idéale pour des planches analytiques ou des dossiers de concours.
Génération d’une planche de concours architecturale
Produire automatiquement une planche complète au format vertical, structurée en trois bandes (diagrammes conceptuels / plans techniques / rendu d’ambiance), prête pour soumission à un concours international.
Top Section: Conceptual diagrams, urban analysis, circulation schemes, exploded axonometrics of the building, programmatic layers, flows, and connections. Clean graphics featuring thin lines, transparencies, minimal iconography, and precise annotations.
Middle Section: Explanatory texts organized into blocks, general site plans, floor plans, sections, and architectural details represented in a contemporary technical style.
Bottom Section: The main atmospheric rendering of the project integrated into its context, utilizing soft tones, light fog, aerial perspective/depth, and a realistic composition. Include human figures, landscape, and urban elements to convey scale.
Overall Aesthetic: Desaturated color palette (soft greens, grays, beige), semi-transparent overlays, abstract conceptual diagrams, modern typography, extensive use of negative space. Final Outcome: A high-resolution competition board, ready for submission.
De l’image au dessin technique blueprints
Convertir une photographie en planche de plans techniques au style blueprint, avec annotations, cotes et diagrammes de systèmes.
Vue satellite vers élévation architecturale
Transformer une image satellite (Google Maps) en dessin d’élévation frontale normalisé, avec hiérarchie des traits et ligne de sol.
Du plan de masse au rendu réaliste
Deux variantes : vue de dessus photoréaliste, puis représentation en maquette isométrique style studio.
— ou —
create an isometric 3D model of this floor plan. Retain all the exact details of the plan with walls, furniture, sofas, deck space. create it like a maquette style physical model placed on an empty table. studio photography style lighting.
Simulation des phases de construction d’une maquette
Générer trois états successifs d’une maquette architecturale, de la structure brute à la maquette finalisée avec matériaux et paysage.
Phase 2 — Adding textures and details: The same 3D house model, now with basic textures and details added. Show the gray concrete, light wood paneling, and large windows. Work in progress, tools nearby.
Phase 3 — Finished model: A high-quality 3D render of the completed house model. Fully detailed with realistic materials, all windows, doors, and landscaping. Presented on a minimalist table with professional studio lighting.
Édition et composition avancée — 5 techniques
Famille de prompts génériques pour les opérations d’édition : ajout/suppression d’éléments, masquage sémantique, transfert de style, composition multi-images, et préservation de détails haute fidélité.
Using the provided image of [subject], please [add/remove/modify] [element] to/from the scene. Ensure the change is [description of how the change should integrate].
8.2 Masquage sémantique :
Using the provided image, change only the [specific element] to [new element/description]. Keep everything else in the image exactly the same, preserving the original style, lighting, and composition.
8.3 Transfert de style :
Transform the provided photograph of [subject] into the artistic style of [artist/art style]. Preserve the original composition but render it with [description of stylistic elements].
8.4 Composition multi-images :
Create a new image by combining the elements from the provided images. Take the [element from image 1] and place it with/on the [element from image 2]. The final image should be a [description of the final scene].
8.5 Haute fidélité :
Using the provided images, place [element from image 2] onto [element from image 1]. Ensure that the features of [element from image 1] remain completely unchanged. The added element should [description of how the element should integrate].
Ce que l’on retient
ComfyUI s’impose comme un environnement de travail rigoureux pour l’architecte qui souhaite garder le contrôle sur la chaîne de génération. Les workflows multi-nœuds permettent une reproductibilité et une documentation du processus que les interfaces fermées ne permettent pas.
Les modèles spécialisés (ControlNet pour la géométrie, IP-Adapter pour les matériaux, Qwen pour l’éclairage) couvrent les principales étapes de représentation architecturale. L’enjeu est moins d’apprendre à dessiner des prompts que de comprendre quels modèles activer à quelle étape du projet.
La seconde famille d’outils testés (Google Gemini, Nano to Banana) offre une entrée plus directe et conversationnelle, particulièrement efficace pour la génération de planches de concours ou la conversion rapide de photos en représentations techniques. La complémentarité des deux approches semble prometteuse pour un atelier de projet.