Una parte importante de la producción literaria más reciente suele vincular la arquitectura contemporánea a los esfuerzos en el desarrollo de los recursos gráficos digitales. En esta celebración optimista de la presencia digital, la representación gráfica arquitectónica estaría asociada a un “adviento” tecnológico ocurrido en algún momento alrededor de los años noventa, y que tendría reflejos evidentes, no sólo en la representación gráfica arquitectónica, sino que en toda la cadena de la construcción. En contra de este abordaje simplificador, se afirma que los adelantos recientes, en la arquitectura como en su representación, están asociados a otras circunstancias además de las transformaciones tecnológicas, de entre las cuales se destacan: la contestación al vocabulario clásico de representación hegemónico en la construcción civil desde el Renacimiento hasta los años 1960; la búsqueda de nuevos referentes por parte de la arquitectura más erudita, forzada a la crítica del Movimiento Moderno y al reconocimiento de su inevitable convivencia con el mercado; y la influencia de las neovanguardias arquitectónicas, que intentaron superar impases teóricos y conceptuales desde el rescate de preocupaciones del mismo Movimiento Moderno, aliado a la atención a los recursos tecnológicos. Por fin, los arquitectos nos hemos visto inmersos en un ambiente sociocultural marcado por la globalización y por las nuevas redes de comunicación. Aceptado el hecho de que el actual predominio de lo tecnológico –y en particular de lo digital- tanto en el discurso teórico como en la praxis profesional resulta de circunstancias diversas, se intentarán identificar las transformaciones más relevantes, a las que se llamarán procesos dinamizadores de la praxis arquitectónica.
La difusión de los ordenadores personales (PCs) en el inicio de los ochenta indujo la demanda por aplicativos, a la que la industria informática contestó ampliando la oferta de software gráfico. Este panorama hizo avanzar el CAD que, difundido desde los EE.UU., estuvo enfocado a las ingenierías y al diseño industrial, necesitados de técnicas automáticas y precisas de redacción y registro de proyectos. Comparada al dibujo manual, esta primera generación CAD poco tenía a ofrecer a la arquitectura, a parte de la rapidez. No obstante, una veloz evolución enseguida hizo aparecer una extensa familia de procesos informatizados de dibujo; muchos de ellos, ya adaptados al proyecto de edificaciones. Hacia la mitad de esta misma década ya se consideraba la generalización de esta plataforma en los contextos arquitectónicos europeo y norteamericano, y su ampliación era notable en América Latina (1).
En aquél momento, esta expansión se condensaba en la denominada “infografía arquitectónica”. El término concierne menos a los recursos disponibles que al concepto de su uso: orientada hacia el diseño bidimensional y a la impresión de planos, contestaba a necesidades más inmediatas de la construcción que a la exploración de conceptos específicos de la arquitectura. Quizás por esto, la incorporación de recursos digitales no haya sido homogénea en los estudios, ni tampoco en las escuelas de arquitectura (2). La mayoría de los arquitectos que trabajaban con PCs en esta misma época tendía a considerar la infografía como mero aporte en la realización de operaciones gráficas ya usuales (3). Como resultado, mismo informatizado, su trabajo se caracterizó por la aceptación -más bien pasiva y no planeada- de las alternativas ofrecidas por la industria, por la transferencia directa de la experiencia anterior en dibujo manual al ordenador, y por la consiguiente conformidad con preceptos anteriores a la difusión de la informática. En esta acepción, el campo de trabajo mostrado en la pantalla del ordenador fue tomado como un “tablero digital”: una “hoja” infinita pero sin profundidad donde se disponían los elementos de proyecto de modo análogo a la representación gráfica convencional. Así, mientras el PC se hacía ubicuo entre los arquitectos, el plano y las secciones siguieron modos típicos de presentación gráfica y, por lo tanto, generadores de contenido formal y técnico, lo que retardó la reflexión sobre una informática propia a la arquitectura. Esta transición acrítica condujo por veces al uso indiscriminado de bibliotecas de elementos pre-diseñados o a la duplicación desnecesaria de partes del dibujo (4), entre otras prácticas todavía presentes en pleno siglo XXI. A pesar de todo, estas cuestiones resultaron poco significativas frente a la rapidez, precisión y reproductibilidad del CAD. A los arquitectos – así como al resto de la comunidad involucrada en la construcción - la infografía arquitectónica resultó útil, al reducir plazos y costes de producción del proyecto.
A mitad de los años ochenta ya estaban disponibles los modeladores tridimensionales. Su uso en el diseño y en la arquitectura acabó asociándose a la evolución de otros procesos y conceptos informáticos, todos generalizados a partir de la década de 1990. El primer fue la consolidación de los recursos de gestión de archivos gráficos; el segundo, la definición de lenguajes de programación orientados al objeto; y el tercer, el desarrollo de métodos de cálculo de formas complexas.
Contestando a la necesidad de eficacia y productividad, los editores de imagen y los sistemas CAD incorporaron recursos avanzados de gestión de archivos gráficos. Se trató, principalmente, de los espacios de trabajo (en lenguaje de programación, los “dominios”, que permiten visualizar el objeto de modos distintos pero simultáneos). En programas CAD y de modelado, los archivos son usualmente interpretados mediante dominios llamados “paper space” y “model space”, que admiten la visualización de planos, secciones, vistas y perspectivas virtualmente paralelas. El CAD suele recurrir aún a rutinas de construcción de elementos y a los “bloques” pre-diseñados (5). Mientras las rutinas son scripts de programación que aceleran ciertos procedimientos redundados, los bloques son objetos formados por información geométrica y numérica codificada. Al actuar sobre un bloque, es posible cambiar de una sola vez todas las partes del diseño en las que esté repetido, lo que resulta en ahorro de tiempo y de esfuerzo. Otro modo usual de visualizar y gestionar la información es agruparla en capas (layers). Las capas son usadas en el CAD así como en otras plataformas que gestionan gráficos complejos (como la tecnología GIS o los editores de imagen como el Photoshop) (6). En su acepción más simple, el lenguaje de capas interpreta el objeto como un conjunto de “láminas” superpuestas y transparentes. En modos de trabajo avanzados, los layers dejan de ser “láminas” percibidas como bidimensionales, y pasan a ordenar grupos de entidades tridimensionales.
Paralela a la generalización de los recursos de gestión, la difusión de lenguajes de programación orientados al objeto (como el C++) fue aprovechada por los desarrolladores que, buscando mercado entre pequeñas empresas, dieron énfasis al diseño (y no más al dibujo), a la integración entre representaciones 2D y 3D, y a herramientas más simples e intuitivas. En el sector del CAD, se notó aún la expansión del cálculo por nubes de puntos y curvas spline, más adecuadas al diseño de superficies complejas que los programas anteriores, de típica concepción vectorial y “cartesiana”. El resultado fue la difusión de programas orientados a conceptos tridimensionales (no sólo CAD, sino también de tratamiento de imágenes, diseño gráfico, recursos audiovisuales, modelado y animación), que se ha llamado “la tercera generación” del software gráfico (7).
Una vez disponibles los recursos digitales de descripción de la forma, era posible avanzar hacia un enfoque más radical y innovador en el lenguaje de proyecto. La cuarta generación de herramientas de diseño digital llegó en los noventa, asociada a tecnologías de comunicación, a recursos multimedios, a la evaluación de la performance técnica y a la fabricación digital. Coincidió con el desarrollo de software de comunicación y de control de flujo de datos que el público asocia a la expansión de la Internet, pero que sirvió también al desarrollo de las redes locales: simples y de bajo coste, estos sistemas de conexión se tornaron típicos en las empresas de proyectos. Así, al terminar la década, los más modestos estudios de arquitectura disponían de ordenadores eficientes, baratos, interconectados y capaces de comunicación a distancia. Esta facilidad inédita cambió la estructura administrativa y productiva en el interior de los estudios, y las relaciones entre éstos y las demás organizaciones dedicadas a la construcción. Por ejemplo, redujo la importancia atribuida a la proximidad entre el arquitecto, sus colaboradores, el cliente y la obra. Por primera vez en la historia, personas que trabajaban en distintos locales podían colaborar de modo simultáneo en el desarrollo de un proyecto. Ejemplo primevo de este modo más difuso de pensar la profesión fue el proyecto del extinto FOA para la terminal marítima de Yokohama (Japón, 1995) cuya gestión fue compartida entre Inglaterra y Japón. Enseguida se pasó a pensar en nuevos modos de conectividad, lo que en algunos casos resultó en el alejamiento aún más pronunciado entre el centro de decisión (el ordenador del que diseña y decide) y la producción de datos (el ordenador del que calcula y dibuja) (8). Sin embargo, también se han viabilizado experimentos de diseño participativo a distancia y en tiempo real, como los que han protagonizado estudios como OCEAN, [uto] y servo. Así, el profesional encontró más libertad a la hora de decidir donde asentar su despacho (9), buscar oportunidades o elegir un equipo de trabajo, a la vez que pasó a afrontar la competencia de estudios cada vez más lejanos.
Más o menos al mismo tiempo que la telecomunicación tornó posible gestionar proyectos a distancia, otras tecnologías -concebidas para uso en el arte, en el ocio, en las ciencias y en las ingenierías- empezaron a ser vistas en la construcción y en los estudios, ampliando la interacción entre la arquitectura y su objeto de trabajo. Una de estas mediaciones es la animación digital (10) que, desarrollada en los años 1980 y 1990, está hoy generalizada en la presentación de proyectos, tanto en las escuelas como en el medio profesional. Otra es la aplicación de software de multimedios (como los concebidos para el diseño de videojuegos) en el desarrollo de escenarios urbanísticos. Más reciente es la Realidad Aumentada (RA), que utiliza una mezcla de técnicas de captura de imagen en movimiento, generación de gráficos 3D y referencias espaciales (GPS, por ejemplo) para ofrecer visualizaciones de espacios y objetos virtuales en tiempo real en tablets y smartphones. A pesar de en general carecieren de la precisión adecuada al dibujo técnico de la arquitectura, todos estos recursos de visualización 3D y 4D (11) permiten modelar y animar formas complejas con facilidad y creciente fidelidad visual.
Notable ha sido, aún, la migración hacia la arquitectura de software dedicado a la simulación y evaluación de la performance técnica. Programas de diseño náutico o aeronáutico (como los túneles aerodinámicos virtuales) y herramientas de control de variables ambientales (insolación, ventilación, energía etc.) dejaron las escuelas de ingeniería y pasaron a ser aplicadas en el perfeccionamiento de la forma arquitectónica. Máquinas que transfieren información digital directamente a un modelo o que, al contrario, traducen maquetas o dibujos en formas digitales tridimensionales, conocidas por las prácticas desarrolladas en grandes estudios como el de Frank Gehry, Richard Rogers o Foster Associates o empresas de consultoría (como Ove Arup y designtoproduction), están hoy aprovechados por la profesión.
Emergencia del diseño paramétrico y del modelo integrado
A pesar de los avances, persistió la percepción de que la gestión del proyecto arquitectónico seguía anclada a la acción humana, con las consecuentes limitaciones en productividad y precisión. Hasta principios de los noventa las herramientas de modelado disponibles eran insatisfactorias a la concepción: una vez creado el modelo, la carencia de procesos adecuados para modificarlo de modo interactivo resultaba determinante a una actividad en la que es usual reelaborar soluciones. Esta realidad se ha transformado a partir del diseño paramétrico y de los modelos integrados que, contestando a demandas como la racionalización o el dibujo de formas complexas, acabaron aplicados al proyecto arquitectónico.
Mismo hoy, programas dedicados al modelado de formas complejas sirven a la descripción de volúmenes o cáscaras, no obstante carecer de la precisión adecuada a su fabricación. De esto se encarga una rama más técnica del diseño parametrizado, dedicada a racionalizar procesos constructivos que necesitan de series repetidas de elementos semejantes, pero no idénticos. La racionalización (12) trata de organizar los miles de componentes de un edificio en grupos de objetos que poseen (por ejemplo) mismo concepto, material y finalidad, pero distintas dimensiones. Estas partes de la construcción poseen parámetros semejantes, pero su “identidad” es expresa en distintas variables numéricas, de modo a describir y ordenar grupos de objetos. Los sistemas paramétricos difieren del CAD típico por su capacidad de cambiar la configuración de las partes a cualquier momento del proceso de diseño, manteniendo intacta su “identidad”.
La parametrización se asoció, aún, a la expansión de los sistemas de cálculo spline en la ingeniería mecánica y aeronáutica, lo que condujo al modelado paramétrico. En éste el modelo es definido según relaciones variables entre sus partes, quedando evidentes las normas de relación entre componentes (las entidades que describen la forma) y la información (los datos). Se trata de una geometría asociativa e interconectada, en la que el interés se desplaza desde la forma hacia las reglas interiores que la conducen (13): nueva prioridad, que hizo cambiar la representación digital del proyecto arquitectónico, desde la descripción de formas fijas y explícitas, hacia la notación por modelos dinámicos que facilitan la visualización inmediata de los cambios proyectuales.
Los proyectos del Conjunto Watergate (EE.UU.) y de la Ópera de Sydney (Australia) parecen haber sido las experiencias pioneras en el campo de la parametrización de componentes para la construcción. El proyecto original para Sydney, de 1956, es del danés Jorn Utzon, pero el desarrollo técnico de las vidrieras y de las cáscaras de las cubiertas, a cargo de los técnicos de Ove Arup, necesitó siete años y doce soluciones proyectuales distintas para ser realizado. Precursora en el diseño CAD, en el modelado tridimensional y en la parametrización de componentes, la experiencia sirvió aún de base para estudios posteriores de fabricación de componentes por técnicas de control numérico (CNC). Así, la Ópera de Sydney fue fundamental al desarrollo de procesos que serían incorporados por los arquitectos en las décadas de 1980.
Cerca de 1988 el proyecto paramétrico ganó impulso gracias a los primeros programas comerciales que utilizaban la curva de Bézier y otros procesos que permiten relaciones estables entre los componentes de un diseño, mismo que se cambiaran sus dimensiones (14). De este período es el diseño de la cubierta de la terminal de trenes Waterloo Terminal (Londres, 1988-1993, arqto. Nicholas Grimshaw): uno de los primeros proyectos parametrizados que, enteramente hecho con auxilio del CAD, resultó en un edificio ejecutado. En la terminal, los 36 elementos estructurales que soportan la cubierta curva y los cristales tienen idéntica solución de diseño; sin embargo todos tienen distintas dimensiones. Tanto en este proyecto para Londres como en el precursor para Sydney, la parametrización atendía principalmente a la descripción técnica de elementos constructivos. No obstante, cerca del 1995 las rutinas de parametrización ya estaban generalizadas (15). El empuje conceptual fue aprovechado por arquitecturas más recientes, como las obras de la Sagrada Familia (Barcelona, en obras) o el pabellón BMW (Frankfurt, 1999, arqto. Bernhard Franken), que han explorado de modo creativo el perfil más técnico de la parametrización arquitectónica.
Una de las herramientas paramétricas más potentes es el modelado de información de construcción (en inglés: Building Information Modeling, o BIM), cuya meta es crear un modelo completo de la obra, coordinado entre los diferentes participantes en el proyecto, y que considere todo el ciclo de vida del edificio. Un modelo BIM abarca no sólo la geometría, relaciones espaciales e información geográfica, como también cronogramas, cantidades, costes y propiedades de los componentes, además de procesos de creación, instalación y mantenimiento. Con el BIM, los componentes y sistemas de una edificación se vuelven objetos digitales tridimensionales parametrizados y codificados, cuya información es intercambiable con otros aplicativos (como bases de datos u hojas de cálculo). Por esto, modificaciones en cualquiera de estos niveles tienen impacto en tiempo real en todos los demás (16). O sea, el BIM sólo es eficaz si se dedica atención a los parámetros iniciales de la arquitectura deseada, lo que supone un esfuerzo en concebir un modelo original coherente, así como en actualizar y añadir información al mismo. A pesar de esta complejidad, su difusión es evidente: tanto en Europa como en EE.UU. y Latinoamérica se acerca el momento en que el concepto BIM será el modo predominante del trabajo con CAD en la arquitectura (17).
En paralelo a la difusión del BIM, se observa la crecida de programas como el MoI, Maya Mel Script, o el Grasshopper (plugin para Rhinoceros), que utilizan scripts. En esta clase de software, un modelo matemático está integrado por módulos componibles que reúnen funciones, operaciones, tablas y bancos de datos ordenados por una interface gráfica. El script genera un modelo geométrico parametrizado cuyas características formales pueden variar simplemente cambiando los valores de los componentes en el modelo matemático. La facilidad de manejo del Rhinoceros o del Grasshopper ha contribuido a su popularidad entre los arquitectos, que os han utilizado tanto para generar superficies como para construir algoritmos generativos. Como los que usa el equipo de proyectos responsable de las obras de la Sagrada Familia, para determinar las geometrías de las superficies de doble curvatura que describen las formas imaginadas por Antoní Gaudí en esta basílica de Barcelona.
Los procesos dinamizadores y la expansión del concepto de proyecto
Evidenciadas las técnicas digitales más evidentes en la praxis arquitectónica, se ha constatado un origen común, fundado en la exploración de recursos técnicos de gestión cuya primera finalidad era la productividad. Enseguida se ha notado un importante desarrollo vinculado a la constante absorción de conceptos y tecnologías pensadas para otras áreas profesionales, hasta llegar a la actual emergencia de los modelos digitales integrados, asociados a procesos paramétricos y a modos de trabajo que se estructuran en los medios de comunicación. Estos procesos emergentes están ya en toda la cadena de proyectación y producción de edificios: hecho ineludible, que cambia la naturaleza misma de la construcción y, en consecuencia, el rol del arquitecto en ésta.
Gracias a su capacidad de emular el movimiento y de auxiliar la percepción espacial, visual y/o sonora, mediaciones como la animación 4D o la RA han estado cada vez más presentes en la presentación del proyecto. Y, junto a la fabricación digital y a la evaluación técnica, han abierto el camino a la exploración de las formas dinámicas en la arquitectura. Del mismo modo, los lenguajes de programación orientada al objeto, los métodos de cálculo de formas complexas y los recursos de programación (como los espacios de trabajo y la gestión de capas y bloques) acabarían siendo cruciales en el desarrollo de la parametrización y de los modelos tridimensionales integrados.
En realidad, todas estas herramientas han evolucionado casi en paralelo, y han caminado hacia la integración y la colaboración. Muchas veces experimentado como mezcla o hibridación, este acercamiento entre lenguajes, plataformas y programas fue resultado, más que de la imposición de los usuarios, de la misma lógica irrevocable que os ha vinculado a los nuevos paradigmas de la comunicación. Estos recursos han facilitado una visualización potencialmente inmediata y simultánea, multiescalar y pluriangular, tanto de un único objeto como de diversos contenidos (cada uno con su propio nivel de complexidad, su escala y sus informaciones). Esta visión – ampliada, flexible y complexa- condujo a los diseñadores a repensar sus conceptos acerca de lo que es y como opera un proyecto.
El diseño por modelos tridimensionales facilitó el entendimiento de los objetos como volúmenes, ya no como elementos organizados desde sus vistas ortográficas. Con la parametrización, la estructura y la forma del edificio pueden ser manipuladas sin perder la coherencia entre el conjunto y las piezas de construcción individuales. Los modelos integrados han hecho posible vincular importante cantidad de información a los componentes constructivos, ampliando la capacidad descriptiva del proyecto arquitectónico y multiplicando la posibilidad de experimentación. Asociados a nuevos recursos de visualización como la simulación de performance, el escaneo 3D y el prototipado rápido, ofrecen la oportunidad de ver, evaluar y transmitir incluso los conceptos espaciales más tempranos. Estos cambios han llegado a la misma noción de geometría: antes parte esencial y definidora de la “totalidad” del proyecto arquitectónico, ésta ahora se presenta de modo más relativo, sirviendo como soporte a una realidad espacial y formal mutable. En esta relativización ha sido fundamental el modelo tridimensional: integrado, dinámico y parametrizado, el modelo contribuye a la construcción de un nuevo tipo de “totalidad” (18), caracterizada tanto por relaciones orgánicas entre las diversas partes de una arquitectura, como por permitir nuevos vínculos entre ésta y su contexto. Así arquitectura y contexto se entienden como partes distintas e interdependientes de un “sistema” (19).
La conexión en red y la progresiva familiarización con los espacios de trabajo condujeron a una reordenación de la labor en los estudios. A los cambios en las estructuras jerárquicas y productivas se sumó una inédita flexibilidad en la localización y en la dimensión necesaria a los despachos. En el mismo rumbo, el lenguaje de layers dejó de ser una simple herramienta de ordenación de contenidos, y fue utilizada cada vez más en la estructuración y visualización de distintos niveles de información, lo que contribuyó a procesos de trabajo más complejos, que consideran el objeto desde miradas múltiples y simultáneas. Como resultado, ya es posible concebir un diseño que, operado en red, sea realmente compartido. Y el proyecto de arquitectura puede ser, más que pensado, efectivamente gestionado como un hiperdocumento.
En su límite, el uso de ordenadores no implica simplemente adoptar un método de trabajo, sino la exploración de una manera nueva de trabajar. Asumir esta manera significa, aún, superar la meta mayor del típico diseño generativo, que es la búsqueda por el control de la forma final de un producto. Al aceptar que la máquina maneja mejor y más rápido una cantidad más importante de variables, el diseñador queda con las manos libres para comparar escenarios, determinar parámetros y elegir soluciones. Esta práctica renovada contribuye para que sean encontradas soluciones –aparentemente inesperadas, impredecibles o arbitrarias - pero que en realidad corresponden a un equilibrio inusual entre el interés visual, la calidad espacial y ambiental y la optimización técnica y constructiva. Al controlar las variables de estos procesos, el arquitecto determina un nuevo grado de complexidad que el sistema matemático original no poseía. La alternativa digital tiene otra ventaja: controlada por manos expertas, la variación paramétrica puede seguir ofreciendo respuestas “inesperadas”, pero dentro de un rango cada vez más estrecho de opciones técnicamente viables. El problema del diseño generativo es, entonces, básicamente un problema de interacción hombre-máquina. El grado de complejidad, variedad e indeterminación de estos sistemas depende de la capacidad del usuario en manipularlos. Y aún más: una vez que cada persona diseña y manipula procesos de modo distinto, el diseño generativo vuelve a ser una cuestión humana, relacionada al aprendizaje y a la competencia.
El desarrollo y el uso cada vez más generalizado de estos procesos dinamizadores han alejado el modo de pensar simplificador asociado a la “infografía arquitectónica”. Así, han contribuido para superar concepciones culturales predominantes hasta los ochenta. En este siglo XXI las condiciones técnicas han evolucionado de tal modo que los arquitectos tienen a su disposición medios suficientes para la descripción de la forma imaginada, en lugar de restringirse a imaginar formas que se pudieran dibujar (20). De la misma manera, ya es posible tanto gestionar el proyecto como un todo como hacerlo a la distancia y en tiempo real. Estas visualizaciones más complejas y ágiles, asociadas a nuevos modos de gestión y a la interacción entre los proyectistas y un modelo virtual, han resultado en más agilidad y diversidad en la concepción del proyecto, en una percepción renovada de las relaciones espaciales y, finalmente, en una comprensión renovada del trabajo del arquitecto. En los procesos creativos digitales la operación manual pierde relevancia: los raciocinios que sirven a la exploración conceptual, formal y espacial ya no se aseguran desde la relación entre la mano que hace y el ojo que observa: la mente se relaciona directamente con una estructura digital que permite la visualización simultánea del objeto diseñado, del proceso que le conforma, y del contexto en que se inserta. Inédita libertad conferida a la profesión, que se ha lanzado a su desfrute.
notas
1
Cf. MONEO VALLÉS, José Rafael. Idear, representar, construir. En: Anales del IX Congreso EGA de Sevilla. Vol 3 (Debates). Sevilla, Ass. Esp. de Deptos. Univ. de Expresión Gráfica Arquit., 2006, p. 31.
2
Cf. ZAERA-PÓLO, Alejandro. Generative Processes. En: The Sniper´s Log. Barcelona, ACTAR, 2012, p. 165.
3
SAINZ, Jorge; VALDERRAMA, Fernando. Infografía y Arquitectura. Madrid, Nerea, 1992, p. 21.
4
MITCHELL, William, en: TERZIDIS, Kostas. Expressive Form: A conceptual approach to computacional design. London: Spon Press, 2003, p.vii; y PRESTINENZA PUGLISI, Luigi. HyperArchitettura: Spazzi nell´età dell´elettronica. Torino: Testo & Immagine, 1998, p. 66-67.
5
Recursos ya generalizados en el CAD cerca de 1995. Cf. FALLON, Kristine. Early Computer Graphics Developments in Architecture (…). En: IEEE Annals of the History of Computing, vol. 20, n. 2, p. 20-29, 1998, p. 28.
6
En el CAD el uso de layers está institucionalizado desde 1990. El AutoCAD los usa desde su Release 12 (1992). El primer software editor de imágenes a usar layers fue Fauve Matisse (cerca del 1993). El Photoshop (1990, Adobe) los usa desde su versión 3.0 (1994). Cf. AMERICAN INSTITUTE OF ARCHITECTS. CAD Layers Guidelines. Washington, AIA, 1990, p. 8.
7
Se trata de Rhinoceros (1994, creado por McNeel como plugin del AutoCAD), 3DStudio (1990, hoy 3DS Max, de la AutoDesk), el Form*Z (1991, auto.des.sys), Softimage (Avid Technology), Alias Sonata y Maya (1998, AliasWaveFront). También el AutoCAD R11 (1990) disponía de modelado de sólidos, mejorado por el sistema ACIS (1992) para competir con modeladores orientados al diseño mecánico (como Pro/ENGINEER, NX, Solid Edge y Autodesk Mechanical Desktop). Aliados a CATIA, SolidWorks (1995, hoy de Dassault Systèmes) y SketchUp (2000), integran lo que se llamó “la tercera generación”, orientada a conceptos 3D.
8
La paradoja refleja la persistencia de un modo de producción del proyecto que, intrínsecamente jerárquico y autoritario, reproduce procesos y sistemas típicos de la Revolución Industrial y del paradigma socio-económico moderno. Cf. ALLEN, Stan. Practice: Architecture,Technique+Representation. New York, Routledge, 2009, p. 73.
9
Josep Quetglas notó que, hasta los años 1980, los arquitectos madrileños se podían visitar desde una corta caminada. Al comentar la realidad de finales de los años noventa, Quetglas nos hace percibir que la localización del estudio, antes estratégica, ahora es cada vez más una elección personal. Cf. QUETGLAS, Josep. Visitas. En: El Croquis in Progress 1999-2002, p. 26-35. Madrid, El Croquis Editorial, 2002, p. 27.
10
La animación trata del movimiento de los objetos, del observador o de la cámara y de la relación entre éstos y el paso del tiempo. Los aplicativos más conocidos son el 3Ds (3DsMax, 1990, Autodesk), 3Dstudio, RenderZonePlugin (creado para potenciar el Form*Z), Maya (y el Maya MEL script, 1998, hoy de Autodesk), Cinema 4D (1993, Maxon) y Blender (1995, NeoGeo).
11
La visualización se refiere al rendering de la imagen: la ilustración de la forma, de la textura del material y del efecto de luz, en el 3D así como en la imagen “plana”. El término ha sido usado para abarcar todos los modos de representación gráfica arquitectónica. 4D se refiere a la animación de modelos tridimensionales, o sea, su desplazamiento en el tiempo.
12
Arnold Walz, responsable del despacho alemán designtoproduction, explica los conceptos de optimización paramétrica y de la racionalización del diseño para producción en su ensayo “The Whole and Its Parts”, en: SAKAMOTO, Tomoko, FERRÉ, Albet (edit). From control to design: parametric algorithmic architecture. Barcelona, Actar, 2008.
13
Comentó Branko Kolarevic: "Son los parámetros de un determinado objeto los que son declarados, y no su forma". Cf. KOLAREVIC, Branko; MALKAWI, Ali M. Performative architecture: beyond instrumentality. New York, Spon Press, 2010, p. 251.
14
Como por ejemplo el Pro/ENGINEER de la Parametric Technology Corp.
15
Cf. FALLON, Kristine. Early Computer Graphics Developments (…). In: IEEE Annals of the History of Computing, vol. 20, n. 2, 1998, p. 13.
16
La idea de un modelo CAD integrado no es nueva, y viene de la necesidad de conectar el proyecto en CAD a la información en formato de texto y de plantillas. Las primeras propuestas de superación del desfase son de la década de 1980; aunque capaces de producir memorias de cálculo estructural, volumetrías y especificaciones de diseño, ARRIS CAD (1984, Sigmagraphics) y Virtual Building (1987, Graphisoft) no alcanzaban integrar proyectos, planificación y control de obra. Por lo tanto, todavía no podían ser considerados sistemas de modelado integral. En la actual generación de sistemas CAD/BIM, esta dificultad ha sido superada: los “intercambiadores” en uso por el Autodesk REVIT Architecture o por el Graphisoft ARCHICAD asocian toda clase de información a la geometría del edificio.
17
En los EE.UU., más de 70% de las empresas de construcción civil usan BIM. En Inglaterra, es usado por más de 80% de los estudios de arquitectura y será obligatorio en proyectos dirigidos a la administración pública a partir del 2016. En Brasil, una pesquisa entre 600 profesionales concluyó que en 2018 el BIM predominará en estudios de ingeniería y arquitectura. Cf.: http://construction.com/market_research/default.asp; http://piniweb.pini.com.br (acceso 2013).
18
Cf. NORBERG-SCHULZ, Christian (1979). Intenciones en arquitectura. Barcelona, Gustavo Gili, 2001, p. 68.
19
La acepción de “sistema” viene de MONTANER, Josep Maria. Sistemas arquitectónicos contemporáneos. Barcelona, Gustavo Gili, 2008.
20
Con el ojo puesto en esta creciente libertad, Branko Kolarevic notó: "For the first time in history, architects are designing not the specific shape of the building but a set of principles encoded as a sequence of parametric equations by which specific instances of the design can be generated and varied in time as needed". Cf. KOLAREVIC, Branko. Architecture in the Digital Age. Design and Manufacturing. New York, Spon Press, 2003, p. 27.
sobre el autor
Geraldo Benicio da Fonseca és Arquitecto urbanista (FA-UFRGS, 1987), máster en proyecto de arquitectura (EA-UFMG, 2000), y doctorando en comunicación visual y proyecto (ETSAB-UPC, Barcelona, España). Actualmente es profesor de arquitectura y urbanismo en la UVV (Vila Velha, ES, Brasil). Ha ejercido como arquitecto y urbanista en Minas Gerais, con premiaciones en diversos concursos nacionales y regionales.