A l’occasion de l’exposition du Pavillon de l’arsenal sur l’intelligence artificielle, nous faisons un point sur le niveau d’intégration de la technologie et le potentiel de l’IA dans l’architecture.

Pour aller droit au but, l’intelligence artificielle (IA) est encore à ses débuts en architecture, si on applique sa juste définition technologique hors méthodes paramétriques.

Le métier d’architecte a commencé à se transformer depuis longtemps sous l’effet de la technologie. En premier, en exploitant de nouvelles méthodes de construction, en développant les logiciels de conception assistés par ordinateur (CAO), en introduisant la data science et la capacité de calcul statistique complexe et le paramétrisme. L’IA est l’étape suivante qui s’ajoute à cette lente évolution de nos processus de travail. Mais, elle est encore au stade de recherche pour déterminer son apport possible dans les domaines comme plan, structure, perspective et façade.

 

Rappel des 4 étapes d’évolution des processus de travail en architecture

Modularité (1930-1960)

Le point de départ est l’architecture modulaire basée sur la ‘systématisation’ de dimensions et sur la réduction de complexité. En effet, elle a conduit à l’impasse. Les réalisations purement fonctionnelles sont devenues monotones et de surcroît les assemblages trahissaient des faiblesses constructives.

Evidemment, l’architecte n’est pas simplement un « assembleur » de modules et de trames, garant de règles et de processus.

bauhausLa ‘grille modulaire’ théorisée par Bauhaus par Walter Gropius dès 1920, le travail d’Adolphe Meyer, la logique industrielle développée par Richard Buckminster Fuller ont toutefois infléchi la conception.

La normalisation dérivée de l’échelle du corps humain mise en pratique par Le Corbusier et la modularité appliquée par McLaughlin en 1933 ont eu une influence sur la pratique du métier.

C’est sur cette première brique qu’a pu de facto appuyer le développement de la CAO.

 

 

CAO, conception assistée par ordinateur (1960-1990)

Dans une première étape, les outils de CAO se focalisent plus sur le potentiel de construction assistée par ordinateur que sur la conception.

La puissance des moyens informatiques autorise petit à petit la réalisation de systèmes modulaires, mais cette-fois-ci d’une complexité nouvelle.

En 1959, le professeur Hanratty déploie Pronto, un premier logiciel de dessin assisté par ordinateur pour les pièces d’ingénierie.

Peu après, à Berkeley, Christopher Alexander qui était architecte, établit la base du concept de programmation objet (Object oriented programming). Et également le concept de récurrence’ en informatique. Entre 1964 et 1977, il développe ensuite une nouvelle vision de l’utilisation de la puissance informatique en architecture. En effet, il perçoit déjà son potentiel de conception des formes architecturales.

 

Un personnage plus médiatisé est ensuite le professeur Nicholas Negroponte et son Architecture Machine Group (AMG), crée en 1967 au MIT. Cedric Price, titulaire de la chaire d’architecture à Cambridge poursuit les travaux de Negroponte et invente en 1976 le GENERATOR.

Il explore déjà l’idée d’un bâtiment autonome qui réagirait à son environnement et s’adapterait à ses usagers.

Petit à petit, l’effort est porté par les industriels. Certains architectes comme Frank Gehry démontrent la valeur de la CAO dans la conception aechitecturale. Il crée Gehry technologies avec Jim Glymph dès 1980.

Patrick Nahratty, précurseur, 1959, Pronto

 

Nous voilà déjà au début de notre activité de jeunes architectes en France.

 

Les années 1980 représentent le début des premiers logiciels de CAO-FAO, tel Catia de Dassault System en France.

 

Pour le cabinet Zebrandco (à l’époque Gauer architecture), les premières expériences et souvenirs de la CAO datent de 1983. Lors d’un projet industriel sur le site de l’EDF qui venait d’acquérir un exemplaire du légendaire Cray-1, série 41, conçu en 1981. Nous avons pu admirer ce bijou informatique dont la première version a été créé en 1976 par Seymour Roger Cray. L’adoption des logiciels de conception a été donc au berceau de notre agence et nous avons depuis suivi toute l’évolution comme de vrais ‘geeks’.

 

 

La capacité de stockage, l’accroissement de la puissance de calcul facilite la première adoption des logiciels de conception 2D.

Les avantages sont visibles : meilleur contrôle de la géométrie, augmentation de la fiabilité tout en limitant les coûts de conception.

Néanmoins, les lacunes sont aussi évidentes : répétitivité de certaines tâches, manque de contrôle de formes complexes.

En outre, nous sommes encore à présenter les trois dimensions des bâtiments avec les moyens des deux dimensions. Après une période d’utilisation des logiciels d’incrustation de photos, de la fabrication laborieuses de maquettes et d’autres subterfuges narratifs, nous voilà enfin à l’étape paramétrique.

Paramétrisme 1990-2000, de Sketchpad à Revit

L’objectif des logiciels paramétriques était surtout de créer un système suffisamment flexible pour encourager le concepteur à réaliser une grande diversité de scenarii. Le coût des modifications de conception devant être aussi proche de zéro que possible.

Le principe : encoder une procédure et rationnaliser une tâche en un ensemble de règles simples. Le système permet d’isoler les paramètres qui ont une incidence sur le résultat. L’architecte varie les paramètres et génère des scenarios possibles.

Paramétrisme

Ivan Sutherland, 1963, Sketchpad

Projet Stadium

Luigi Moretti en 1960

Comme toujours les pionniers ouvrent la voie.

Luigi Moretti déjà en 1960 avait défini 19 paramètres pour son projet Stadium. Comme par exemple, l’exposition au soleil des tribunes et le champ de vision du spectateur. Chaque variation du paramètre introduit une forme nouvelle créant une véritable esthétique paramétrique.

En 1963, Ivan Sutherland lance Sketchpad. Puis, Samuel Geisberg (PTC) lance en 1988 Pro/Engineer.

C’est en réalité un premier logiciel qui offre à des utilisateurs un accès complet aux paramètres géométriques.

Une nouvelle génération d’architectes ‘paramétrique’ émerge dans les années qui suivent comme Zaha Hadid. A la pointe de cette démarche, elle représente un véritable style d’architecture tant sa façon concevoir est liée au paramétrisme.

Entre le moment de la sortie de Sketchpad et l’avènement du BIM, nous devons encore citer Grasshopper, le logiciel développé par David Rutten (2000). Son apport est décisif pour permettre aux architectes d’isoler facilement les paramètres de conception et les ajuster de façon itérative.

Toutefois, une nouvelle étape est amorcée au début des années 2000 avec le BIM (Building Information Modeling).

BIM est le paramétrisme appliqué à la pratique quotidienne de l’architecte.

L’idée sous-jacente du BIM est que chaque élément du modèle 3D d’un bâtiment est fonction de paramètres (« propriétés ») qui ensuite contrôlent l’objet.

De plus, chaque objet peut être progressivement ‘documenté’.

La logique est pourtant toujours la même : utilisation de paramètres comme moteurs de la conception.

 

Souvenir de nos choix informatiques  stratégiques :

En 2002, Autodesk (sous l’impulsion de Philip Bernstein) rachète Revit. Nous décidons de nous lancer sur un outil paramétrique tridimensionnel, plus tard connu comme logiciel de modélisation des données ou BIM.
Cependant, à l’époque il était difficile de bien choisir. Revit était très peu connu en France. Nous étions en France majoritairement dans l’univers 2D d’ArchiCAD et d’AutoCAD.

Nous découvrons alors que Architectural Desktop n’est qu’une surcouche 3D d’Autocad. Alors que Revit est un BIM, mais qui propose aussi une interopérabilité avec les logiciels en fichier 2D comme Autodesk, Autocad ou 3ds Max et les outils des BET. Nous optons pour Revit. Bien vu.

Revit travaille en plan, en coupe, en élévation et en perspective, en vue orthogonale, en coupe 3D et en nomenclatures.

John Mc Carty, inventeur du concept de l’IA

L’intelligence artificielle (IA)

La définition de l’intelligence artificielle dans notre métier est une approche statistique de l’architecture alliée à l’informatique. En outre, ce qui diffère de l’architecture paramétrique est le fait que les règles ne sont pas déclarées explicitement à l’avance par l’architecte. La machine peut révéler des phénomènes sous-jacents.

Un peu d’histoire de l’IA:

Lorsque John McCarthy en 1956 invente le concept de l’intelligence artificielle, il définit le modèle comme anti-déterministe. Une fois la ‘phase d’apprentissage’ réalisée, la machine peut générer non seulement des solutions qui répondent à des paramètres prédéfinis, mais peut apporter d’autres solutions.

En somme, des résultats imitant la distribution statistique des informations reçues au cours de la phase d’apprentissage. C’est un changement important de paradigme.

La décision n’est pas prise sur les données explicites (méthode heuristique), mais elle est fondée sur la modélisation statistique.

Par conséquent, chacun comprend que la phase ‘d’apprentissage’ est liée à la capacité à ‘ingurgiter’ le maximum de données. Il fallait donc passer aux étapes d’accroissement de la capacité de calcul pour retrouver un second souffle à l’IA.

Les étapes nécessaires du progrès de la technologie

Voici un certain nombre d’étapes qu’on énumère uniquement, sans entrer dans les explications complexes. Le système expert, le moteur d’inférence et l’utilisation de modèles informatiques en couches appelés ‘réseaux de neurones’. C’est-à-dire, l’imitant la structure neuronale du cerveau humain. La machine est donc devenue capable de saisir une complexité plus élevée. En outre, le modèle est préalablement ‘entraîné’ pour des tâches spécifiques.

Voilà le point de départ.

 

Les techniques de l’intelligence artificielle dite ‘générative’

En ce qui concerne l’architecture, ce qui s’avère particulièrement prometteur est GAN : les réseaux de neurones génératifs adverses (Generative Adversarial Neural networks).

Pour comprendre la différence entre un algorithme discriminatoire et génératif, lisez :

Generative adversial network

Réseaux antagonistes

Au début, en 2014 Ian Goodfellow, chercheur chez Google Brain génère des images à partir des réseaux de neurones avec une boucle autocorrective. Ce que cela signifie ?

On passe ici d’un outil d’analyse à un véritable ‘agent’ générateur d’image. Ce qui est évidemment lié à des préoccupations en dessin et en production d’images. Les machines du temps de Negroponte étaient dépourvues de l’intelligence, les machines nouvelles pourraient sans doute apporter une nouvelle évolution à l’architecture.

Mais, vous avez sans doute compris qu’il y a toujours deux conditions.

D’une part, il faut qu’un concepteur communique les intentions à la machine. L’idée, le concept, la question, l’objectif avec un niveau d’abstraction pertinent !

Puis, il faut ‘former’ ou ‘entraîner’ la machine avec des données statistiques (training set) et des qualificatifs mesurables.

Pour l’instant, ce sont des loueurs des plateformes de logiciels comme ArchiCAD qui collectent sur son Cloud le plus de données d’architecture sur le marché!

 

GAN (Generative Adversarial Neural networks), au stade d’expérimentation en architecture

 

GAN est utilisé pour expérimenter. Ce qui est intéressant, c’est qu’il soit adopté par les mouvements artistiques, les ‘Gan’s’. Ce type d’art généré par IA est  nommé aussi le « GANisme ». Les auteurs utilisent les réseaux antagonistes génératifs pour générer les images (collectif Obvious en France ou encore  Mario Klingemann (voir son excellent site officiel)).

A quand nous verrons le premier bâtiment IA ?

L’exposition sur l’intelligence artificielle en architecture montre quatre directions de recherche d’application :

  1. Projet de texturation de Façades (cas Berkeley 2018) : une séance d’entraînement où le modèle apprend à répartir des pièces et les ouvertures dans un appartement incluant fenêtres, corniches, pilastres, portes, balcons. Après 250 itérations, la machine construit une sorte ‘d’intuition’.
  2. La planification de l’espace (ArchiGAN Harvard 2019): Après spécifications de données initiales d’un appartement, l’emprise au sol, position de la porte d’entrée et de fenêtres en façade et un jeu de contraintes, le modèle propose l’agencement. La répartition des pièces, des cloisons, colonnes, murs porteurs), certes encore discutables.
  3. Réalisation de structure apte à porter les charges (Digital Structure Lab, MIT): IA propose comment minimiser la quantité de métal employé pour réaliser la structure tout en garantissant un jeu de contraintes similaires dans chaque variante. La variété des propositions est parfois contre-intuitive et crée un bond dans le champ du possible.
  4. Perspective avec GANloci (Berkeley, 2019): un modèle de représentation qui permet de percevoir le volume crée et une atmosphère le plus proche de la matérialité. L’IA génère des vues perspectives avec des rendus de perception urbaine quasi photoréaliste dans les différents types d’environnement (parc, hypercentre, pavillonnaire.). Il est possible de percevoir la probable réalité du projet et l’ambiance projetée.

 

GAN et génération de façades
GAN et génération d'aménagements

Avenir et perspectives de l’intelligence artificielle

Nous avons dépassé le stade ou on pouvait dire que « les architectes ne font pas les bâtiments, mais des dessins de bâtiments ». En effet, il n’était pas toujours facile de présenter à un client une réalisation en trois dimensions avec des images schématiques en deux dimensions. Avec les progrès de la visualisation en 3D, le souci narratif du modèle 2D a été résolu.

Mais, avec l’utilisation des outils paramétriques, peut-on dire que l’architecte d’aujourd’hui « ne fait pas des espaces mais les diagrammes d »espaces » ? Les outils paramétriques sont en réalité pensés comme des diagrammes paramétriques et des algorithmes génératifs. C’est-à-dire qu’il faut avoir la capacité de comprendre les relations entre les fonctions et comprendre les logiques d’algorithmie.

Pour Revit, combien d’architectes savent utiliser au moins le module d’optimisation basé sur le langage intégré Dynamo. Nous l’utilisons pour améliorer les fonctionnalités de Revit et accélérer certaines fonctions. Mais, l’outils est encore sous-utilisé. Même au niveau des BET qui devraient être bien plus encore adeptes du BIM.

Savoir paramétrer ne signifie pas non plus qu’on utilise un langage spatial d’architecture et que l’outil permet d’intégrer cette capacité cognitive de langage  spatiale. La question est comment traduire les intentions de design, notre intuition spatiale en langage paramétrique.

Une des améliorations pourrait être un rapprochement avec un paramétrage utilisant une narration sous forme de diagrammes sémiotiques visuels.

D’autres réflexions portent sur le potentiel de GAN lorsqu’on peut l’entraîner uniquement avec un set minimal de data.

 

L’intelligence artificielle ne peut pas automatiser l’intuition et la sensibilité de l’architecte. Mais, il faut que l’architecte s’approprie et pilote la conception de l’architecture assistée par l’IA.

 

Cela passe par l’appropriation des différentes composantes ‘homme-machine’ autour des plateformes intelligentes. Et par l’intégration et l’expérimentation rapide de nouveaux outils. Toutefois, l’intelligence artificielle peut apporter des solutions à toutes les échelles du bâti.

 

Pour conclure, si l’architecte n’est pas un acteur du processus, il risque est de finir asservi aux ingénieries du monde de la construction et de la technologie qui ont l’accès aux data en quantité.

 

Chez Zebrandco, n’avons jamais refusé d’être parmi les premiers à expérimenter et force est de constater que nous ne pouvons pas nous plaindre de ces choix.

 

 

Découvrez aussi les autres articles récents du blog.

Share This