Introdução
Cada vez mais ubíquas, as tecnologias digitais têm encontrado na arquitetura um ambiente mais receptivo, como podemos notar pela frequência de termos correlatos em mídias não especializadas. Equipamentos e laboratórios voltados para Prototipagem Rápida têm se espalhado nos cursos de Arquitetura, junto com o uso de ferramentas computacionais cada vez mais sofisticadas para representação e desenvolvimento de Projetos de Arquitetura. Sistemas contemplando "Building Information Modeling (BIM)" e "Geographic Information System (GIS)", bem como softwares para projeto paramétrico como o ambiente Rhino/Grasshopper, são bastante comuns nesse universo em expansão (1). Extrapolando para além do CAD e pranchetas digitais, essa nova onda tem ganhado força desde o final dos anos 1990, proliferando o uso de ferramentas computacionais para projeto, execução e operação das edificações. Termos como arquitetura paramétrica, algoritmo, prototipagem rápida, fabricação digital, Responsive Architecture e Performative Architecture têm ganhado espaço no cotidiano da profissão.
Entretanto, a distinção e a definição desses termos acaba um tanto turva para o público geral de arquitetos, mantendo a disciplina como um campo ainda hermético e obscuro. Essa distância leva ao surgimento de um imaginário em que o uso desse novo pacote de ferramentas digitais só serve para, e obrigatoriamente significa, uma arquitetura blob ou de formas complexas, extremamente complicadas e onerosas de produzir, e à idéia de que as ferramentas de fabricação digital só têm aplicação para materializar esse tipo de projeto. Talvez em parte por isso, embora não mais desconhecidas, essas tecnologias raramente encontram aplicações para além de projetos especiais.
As ferramentas digitais, entretanto, não estão obrigatoriamente vinculadas a formas complexas. Picon esclarece que tais ferramentas de desenho paramétrico (GH) e associativo (CATIA), por exemplo, facilitam ao arquiteto experimentar com praticidade uma grande liberdade formal. Aliando-se aos recursos de investigação de alternativas do design com maior facilidade e aos ensaios e otimizações de uma variedade de critérios do objeto, as novas ferramentas adicionam uma perspectiva a mais para a experiência do projeto (2). Contrariando a expectativa geral de afastamento do compromisso com a construção, Picon argumenta que definir a forma do objeto através de uma série de associações enfatiza justamente esse compromisso com a materialidade, como podemos observar em novos conceitos como Performative Architecture. A complexidade de desenho resultante acaba por ser apenas mais um reflexo da facilidade de representação da plástica possibilitada e encontra nas atuais ferramentas de fabricação digital a expressão para a sua materialização.
Neste trabalho, utilizamos as definições de Performative Architecture a partir de Kolarevic (3), que abrange algumas possibilidades. O termo vem de performance no inglês, que pode significar tanto desempenho quanto uma expressão artística, de comunicação. Manifesta-se ainda de duas formas distintas, podendo o objeto arquitetônico estar dentro da expectativa tradicional de arquitetura, quer dizer, ser um objeto estático, ou, em uma perspectiva mais contemporânea, possuir elementos que apresentam movimento ou reconfigurações físicas do edifício. Esse objeto pode ser tanto reflexo de uma otimização sujeita a algum critério físico objetivo, quanto de uma manifestação artística, permitindo uma performance de comunicação com seus ocupantes (4).
Em projetos voltados para a otimização, a performance está, na grande maioria das vezes, relacionada com o desempenho de pelo menos um critério. Nesse caso, os edifícios geralmente são estáticos, apresentando ou um desenho estrutural que otimiza os esforços, ou aberturas que garantem certa qualidade luminosa ou térmica, ou uma forma que permite uma acústica otimizada etc. Sistemas computacionais são utilizados para aplicar diferentes técnicas de otimização no desenvolvimento do projeto, de modo a atingir o nível de desempenho desejado.
Da mesma forma que as atuais técnicas computacionais permitem o processamento de enorme quantidade de informação necessária para a obtenção de um projeto com desempenho maximizado, a disciplina de automação permite incorporar movimento a essas edificações. Se, em um determinado momento, essas técnicas estavam restritas ao gerenciamento da iluminação, a abrir e fechar portas ou sistemas de ar-condicionado, por exemplo, rapidamente encontraram novas formas de aplicação, assumindo sistemas maiores nas construções e conferindo movimento especialmente às fachadas. Esses elementos dinâmicos podem assumir diversas funções, tanto dedicadas ao desempenho, controlando as abertura e a iluminação, por exemplo, como também funções artísticas, de comunicação e interatividade com o público.
As diversas tecnologias envolvidas
O livro Performative Architecture, organizado por Kolarevic e Malkawi (5), traz uma coletânea de narrativas sobre experiências de projetar e ensaios teóricos que estão hoje acomodados sob o que se define com esse termo. Podemos perceber, ao longo dos ensaios, como a arquitetura resultante e as reflexões sobre ela ou seu processo de projeto acontecem dentro de um forte contexto tecnológico. As tecnologias contemporâneas são seu ponto de partida, desde a concepção, testes, avaliações, passando por processos de materialização, alcançando até mesmo os dispositivos que conferem às edificações as propriedades de responder aos estímulos do seu meio. Essas tecnologias podem ser percebidas em três grupos.
O primeiro grupo tem implicações nos processos de projeto, conta com programas de avaliação e simulação digital, ambientes de desenvolvimento de algoritmos para arquitetura e demais ferramentas ligadas à Arquitetura Paramétrica e aos Sistemas Generativos.
O grupo da materialização digital é o segundo. Um par de termos que sempre acompanha essa nova produção é Fabricação Digital e Prototipagem Rápida, ambos usados como argumentos para viabilidade dessa arquitetura, envolvendo de protótipos para estudo e desenvolvimento até a materialização de partes ou mesmo do edifício em si. A parelha é reforçada por um discurso segundo o qual apenas a fabricação digital viabiliza a arquitetura paramétrica e que, com uma presença mais fundamentada no discurso do que na realidade, a fabricação digital só é necessária para a realização de um projeto dessa natureza.
A terceira tecnologia é a incorporação da automação como parte da arquitetura. Nas décadas de 1990 e 2000 o termo utilizado para essa automação era domótica, que abrangia especialmente a automação de sistemas prediais, como iluminação, condicionamento de ar, segurança, automação de cortinas e janelas e integração de áudio e vídeo em home theaters, eventualmente incluindo a gestão de energia. Em tempos de performance, essa automação assumiu elementos e formas mais espetaculares, acionando diafragmas e tentáculos que controlam aberturas para o controle de sol e vento e, em certos momentos, através de telas de vídeo ou projeções combinadas com sensores de presença e movimento, que estabeleceram novas relações de interação com os transeuntes e ocupantes, isto é, o público dos edifícios.
Em resumo, podemos dizer que Performative Architecture está baseada em tecnologias digitais para:
1. representação e projeto,
2. materialização, e
3. operação do (mecanismo do) edifício.
Todas essas tecnologias são frutos da atual Era da Informação. Embora a vontade e os processos que a desencadearam testemunhem uma tradição que vem se desenvolvendo ao longo da história, foi o século 20 que assistiu o surgimento das principais técnicas e teorias que implicaram na ruptura de paradigma que levou até ela.
A Era Digital está fortemente vinculada a uma evolução tecnológica específica. Podemos identificar, como momentos mais básicos dessa revolução, por ordem cronológica, o uso da álgebra booleana para o desenvolvimento de circuitos digitais, a invenção do transistor e do computador. Nesse mesmo período, ocorreram diversos avanços do ponto de vista teórico-filosófico tão fundamentais quanto os avanços técnicos. Podemos elencar a própria Teoria da Informação, a Cibernética, a Complexidade e a Teoria Geral dos Sistemas, todas apresentando diferentes escalas e aspectos de um mesmo corpo teórico consistente.
Histórico tecnológico, ou técnicas em evolução
Transistor, eletrônica digital e controle
A Symbolic Analysis of Relay and Switching Circuits, considerado o trabalho de mestrado mais importante do século 20, foi defendido por Claude Shannon no MIT em 1938. Diante da dificuldade de “programar” o analisador diferencial de Vannevar Bush, uma máquina de calcular mecânica e analógica, Shannon percebe que é mais fácil e rápido “reprogramar” circuitos elétricos baseados em relés, por exemplo. A partir disso, identifica a relação entre circuitos digitais, ou seja, que possuem dois estados de informação (aberto e fechado no caso dos relés), e a lógica desenvolvida por George Boole em meados do século 19, também digital. Assim como outros matemáticos de seu tempo, Boole investigava uma formulação simbólica para manipulações lógicas, baseadas em afirmações do tipo verdadeiro ou falso. Boole desenvolveu todo um sistema matemático que permitia, além de formular essas declarações lógicas, fazer operações e manipulações algébricas sobre elas. A associação entre a lógica booleana e os circuitos digitais permitiu avançar nos processos de projeto desses circuitos, facilitando não só o seu projeto como o aumento da sua complexidade e controle. Até então os circuitos eram montados de forma empírica e dependiam da genialidade e insight dos projetistas. A identificação com a lógica booleana ofereceu uma ferramenta segura e simplificada para uma metodologia de projeto e otimização de circuitos de relés. É importante frisar a característica digital dos dois sistemas, os circuitos de relés e a álgebra booleana. Ela é independente da questão elétrica ou lógica; está na verdade ligada às possibilidades de estados dos sistemas e permite a identificação entre eles. Assim, a lógica booleana possui dois estados: verdadeiro ou falso. Da mesma forma, os sistemas de relés e válvulas também possuem dois estados: ligado ou desligado. Essa abstração e analogia foi extremamente importante para os próximos desenvolvimentos na direção da Era da Informação.
Nos anos seguintes, Shannon passa a trabalhar no Bell Labs, centro de pesquisa e desenvolvimento da companhia telefônica americana AT&T, fundado nos anos 1920. A lógica booleana é então aplicada ao sistema de conexões telefônicas da empresa, que era baseado em relés e válvulas. Fica claro, na época, que o sistema é um enorme computador, um gigantesco processador de dados com grande flexibilidade de reestabelecer conexões (6). Nesse período, muitos esforços para desenvolver máquinas capazes de processar dados vinham sendo empreendidos, com especial interesse em criptografia de mensagens durante a 2aguerra mundial. De um lado, a Alemanha havia desenvolvido a máquina de criptografia Enigma e, do outro, Alan Turing, von Neumann e Shannon estavam entre os principais nomes tentando quebrar essa codificação, ao mesmo tempo em que tentavam proteger as próprias comunicações.
Paralelamente, processadores de informação como o analisador diferencial de Vannevar Bush estavam sendo utilizados para cálculos balísticos, associados a sistemas de radar e servomecanismos para monitoramento e controle de baterias anti-aéreas. Entre os nomes que nos interessa destacar nesse desenvolvimento está o de Norbet Wierner.
Logo após a guerra, dois trabalhos teóricos seminais servem de marco para a Era da Informação: o livro “Cibernética”, de Wierner, e o paper posteriormente publicado como livro “Teoria matemática da comunicação”, de Shannon e Weaver, ambos publicados entre 1947 e 1948. No mesmo período, buscando substituir a válvula utilizada nos circuitos eletrônicos, outros 3 pesquisadores do Bell Labs desenvolvem o transistor. Primeiramente, John Bardeen e Walter Brattain, sob supervisão de William Shockley, desenvolvem o transistor de contato, baseado em uma peça de ouro e uma placa de germânio. Poucos meses depois, Shockley desenvolve o transistor de junção, feito com 3 fatias de germânio coladas com características elétricas diferentes. A versão do transistor de contato eventualmente se mostrou muito mais simples e barata de produzir, além de permitir um grau crescente de miniaturização. Essa miniaturização levou, nos anos seguintes, ao desenvolvimento dos circuitos integrados e dos microprocessadores, permitindo a atual ubiquidade dos dispositivos eletrônicos (7).
A compreensão dos processos de controle e o desenvolvimento tecnológico de circuitos de controle e/ou reprogramáveis expandiram a aplicabilidade da eletrônica digital. O barateamento dos circuitos eletrônicos, com seu aumento de complexidade possibilitado pela constante miniaturização e conexão de cada vez mais transistores, permitiu a difusão e ampliação de seu uso nas mais diversas aplicações, desde calculadoras até dispositivos de controle de máquinas e conexões telefônicas, reduzindo drasticamente o tamanho dos computadores valvulados dos anos 40 e 50. Logo essa tecnologia migrou para a manufatura, levando a evolução das máquinas de NC’s (numeric control) para as de CNC (computerized numeric control).
Digitalizando a manufatura
O atual fenômeno de fabricação digital na arquitetura faz parte da constante atualização da disciplina frente ao zeitgeist da qual ela é contemporânea. A absorção das técnicas em uso nas demais indústrias é prática histórica da arquitetura que atualmente busca a apropriação da tecnologia de CNC. Essa tecnologia tem se popularizado na arquitetura, especialmente através da prototipagem rápida, para a confecção de maquetes para divulgação e protótipos para ensaios de suporte ao desenvolvimento dos projetos. Existe um tendência crescente de utilização e pesquisa da fabricação digital de componentes da edificação e de edifícios inteiros, exemplificados pela prática de escritórios e pela pesquisa acadêmica. Um exemplo de pesquisa é a tecnologia contour crafting, em desenvolvimento pelo professor Behrokh Koshnevis. Podemos dizer que a fabricação digital é um desdobramento na manufatura da Teoria da Informação.
A evolução das máquinas de cálculo, desde o ábaco, passando pelas máquinas de calcular de Pascal e Leibniz, a máquina analítica de Babbage e o analisador diferencial utilizado por Vannevar Bush, Wiener e Shannon, desemboca no contemporâneo computador. Essa evolução conta uma história tanto de aumento de capacidade de processamento, quer dizer, de ser capaz de processar uma quantidade maior de informação, como de uma quantidade maior de processamentos possíveis relativos a essa informação. A quantidade maior de processamento possível acaba se traduzindo em uma flexibilização das operações a serem realizadas, e de fato a máquina de Charles Babbage, concebida em 1835, já se propunha como máquina de propósito geral. Essas máquinas têm não apenas a capacidade de efetuar diversas operações, como a propriedade de reconfigurar a sequência dessas operações, quer dizer, são programáveis. Os atuais computadores são isso: super máquinas de propósito geral.
Um exercício de abstração matemática interessante, que pode ajudar a exemplificar esse conceito, é compreender essas máquinas em termos de potencial de operações realizáveis e operação realizada. Matematicamente podemos entender esse potencial como o domínio e contradomínio, ou seja, o espaço de possibilidades daquele sistema; e a operação realizada como a função que mapeia a imagem no contradomínio, ou melhor ainda, uma restrição desse contradomínio. Colocando de forma mais direta, sistemas (ou máquinas) possuem um domínio, que é o conjunto de possibilidades, e dentro dele podem se comportar de acordo com uma série de funções ou restrições dessas possibilidades.
Em Automation Takes Command, Kiel Moe (8) chama atenção para a evolução dos processos de manufatura até os dias atuais da fabricação digital. Fazendo um recorte temporal de mais ou menos 100 anos entre meados do século 19 até o desenvolvimento do CNC encomendado pela Forca Aérea Americana no século 20, Moe conta a evolução dos processos de manufatura sob a ótica do controle pela informação, nas palavras dele, do comando numérico. O autor mostra a padronização de peças dos equipamentos militares e controle dos mesmos através dos desenhos de fabricação e uso de gabaritos, utilizados para produção e controle de qualidade. Um dos argumentos apontados por Moe é a distribuição geográfica da produção dos equipamentos, importante durante a Guerra de Secessão americana. A concentração de produção ficaria comprometida pela capacidade produtiva, além de implicar grandes problemas de logística para a distribuição. O envio da informação de controle da produção (os planos e os gabaritos) é bem mais simples do que a entrega dos equipamentos prontos. Naquele momento, associando os gabaritos e planos a modelos definidos numericamente (a geometria), Moe descreve o começo da supremacia do controle numérico no controle de qualidade do objeto produzido. O controle se dá através da comparação com os desenhos de projeto, e, em alguns casos, do uso de gabaritos para guiar (restringir) os movimentos das máquinas. Esse tipo de controle mecânico tem entre as suas primeiras versões os cartões perfurados do tear de Jaquard de 1804, que controlavam o padrão dos tecidos produzidos. Similarmente, na segunda metade dos século 19, se observa o surgimento dos tornos com cames, gabaritos que acionam o funcionamento das ferramentas a partir da sua geometria.
Com o advento dos controles eletromecânicos em meados do século 20, a fabricação fica a cargo da programação dos circuitos elétricos. Mais tarde, o desenvolvimento do transistor leva a circuitos programáveis, finalmente alcançando as máquinas CNC, quando os gabaritos e planos de fabricação se tornam digitais, ou ainda, softwares.
O desenvolvimento das tecnologias de controle levaram à virtualidade da eletrônica, à eletrônica digital e finalmente ao software a definição dessas restrições de movimento das máquinas, ganhando em velocidade e fidelidade de reprodução, e especialmente à flexibilidade das funções possíveis. Olhando de maneira mais abstrata, o hardware define o domínio e contradomínio da máquina, enquanto o software permite emular diversas funções, ou comportamentos.
Performalism
Sistemas, acima de tudo, são dinâmicos sob o ponto de vista da Teoria Geral dos Sistemas (TGS). Toda a descrição da cibernética está baseada justamente em como o sistema reage a estímulos ou, ainda, a mudanças no ambiente. Podemos interpretar esse fenômeno dizendo que determinado estado do sistema é uma resposta a certo estado do ambiente. A mudança no ambiente exige que o sistema seja capaz de se adaptar adequadamente ou suportá-la, do contrário o sistema se desfaz, é destruído. Essa flexibilidade está relacionada com as propriedades conectividade e estrutura do sistema. Conectividade diz respeito às conexões possíveis (entre as partes do sistema e delas com o ambiente), suas naturezas e intensidades, enquanto estrutura seria um mapa das conexões/relações estabelecidas em determinado momento. Trazendo essa percepção para a arquitetura, Herr (9) aponta a possibilidade de uma arquitetura dinâmica, ou ainda inacabada, de alguma maneira aberta, que seja capaz de se adaptar a essas mudanças. Aponta, ainda, os sistemas generativos como possibilidade para incorporar essa dinâmica, inclusive da incompletude do objeto arquitetura.
O termo Performative Architecture, título do livro de Kolarevic e Malkawi (10), expressa bem essa condição e é praticamente sinônimo de Performalism e Responsive Architecture, todos termos novos e ainda a caminho da estabilidade. Os exemplos ao longo do livro tratam tanto por uma busca por um desempenho com relação a grandezas específicas como de uma adaptabilidade a mudanças. Em alguns exemplos, a ênfase é na estrutura sistêmica, aquela que especifica as configuração de relações, ao se busca a otimização de determinado desempenho. Nesses casos chega-se a um objeto estático, por exemplo, ao se otimizar o uso de iluminação natural ou a massa da estrutura de um edifício. Em outros, a ênfase é na conectividade sistêmica, buscando uma flexibilidade capaz de adaptar a construção a variações mais amplas, promovendo edifícios que se reconfiguram.
Yasha Grobman e Eran Neuman, na primeira sessão de Performalism, também conceituam performance de duas maneiras. A primeira como uma arquitetura cristalizada, definida em termos de eficiência de certo parâmetro, e outra como a performance social realizada naquele espaço (11). Independentemente do conceito adotado (seja desempenho energético, estrutural, lumínico ou performance social realizada), a arquitetura resultante é palco onde certas atividades humanas podem ser realizadas, encenadas, “performed”. Entretanto, essa performance possível nem sempre é contemplada na totalidade pelo espaço cristalizado, e demanda alterações tanto na performance como no próprio espaço, mudanças essas que vão acontecendo paulatinamente em adaptações tanto do espaço construído como da performance social. As razões desse descompasso são destacadas por Neuman:
“(...) resistance to an architectural space that is based on technological performance may appear because of a lack of congruence between the parameters that defined the architectural space and the human needs.” (12)
Entre as ideias em suspensão sugeridas por Neuman (13) estão a de um pensamento gerador de arquitetura que, enquanto assume a eficiência de algum parâmetro, está aberto o suficiente para permitir variações de quais parâmetros trabalhar, bem como qual seria sua condição de eficiência. O autor sugere que
“The process of digital planning seeks to develop an open system in which the parameters that produce the architectural realms will be flexible, dynamic, and frequently changing. This change makes possible the creation of spaces that are simultaneously specific and diversified, which of course has an impact on a more particular use of architecture. The parameters that take the subject’s specific needs into consideration create a space that is a priori customized for her/him.” (14)
Em outras palavras, a flexibilidade possível a partir de sistemas digitais, seja no processo de projeto, seja no controle do comportamento dos sistemas arquitetônicos (expandindo sistemas para além da ideia de sistemas prediais básicos como energia, comunicação e hidrossanitário), amplia o grau e as possibilidades de personalização do espaço arquitetônico. Inclusive em tempo real. A situação do espaço que define a performance e é definido por ela, essa mútua evolução, encontra eco nas discussões de robótica co-evolutiva e já está presente nas discussões de cibernética de 2aordem. O projeto do Fun Palace, feito em parceria entre o arquiteto Cedric Price e o ciberneticista Gordon Pask, na década de 1960, buscava justamente isto. É um espaço semi-definido em que sua configuração, momento a momento, vai sendo definida pelos usuários, como fica explícito no programa de necessidades-fluxograma do projeto desenvolvido pelos parceiros.
Corroborando isto, Aaron Sprecher (15) aponta que essa busca da performance como personalização em tempo real da arquitetura já vinha se baseando em sensores e atuadores, como nos atmosferic projects. Reforçando a idéia de Eran Neuman (16) da dimensão dinâmica da arquitetura como plataforma para a performance humana, Sprecher enfatiza ou explicita a natureza enquanto informação dos parâmetros de projeto. Além disso fala de um dinamismo muito mais intenso como responsabilidade da atual ubiquidade dos sistemas de processamento de informação.
Devemos deixar claro que o mais fundamental aqui é tratar as leituras e atuações no ambiente como processamento de informação, o que não obriga a um tratamento a partir de sistemas controlados ou monitorados eletronicamente. Compostos bi-metálicos que mudam de forma reagindo à incidência solar (e portanto temperatura) são um exemplo de que esse processamento pode ser feito de forma “passiva”.
Considerações finais
Como vimos acima, os termos Performative Architecture, Performalism e Responsive Architecture estão em geral ligados a tecnologias como sistemas generativos, projeto paramétrico e fabricação digital ou prototipagem rápida. Nada mais natural, uma vez que são tecnologias irmãs, embora independentes. Especialmente sobre Performative Architecture, propomos classificar a Performance, em dois grandes grupos:
Estática: aquela que busca um desempenho a partir da estrutura fixa do sistema, geralmente otimizada para um determinado estado do ambiente.
Dinâmica: aquela que busca o desempenho a partir da reconfiguração do sistema, como resposta a variações no ambiente.
Existe ainda uma discussão sobre uma performance no sentido artístico. Ela lançaria mão de flexibilidades nos elementos e especialmente da estética para uma interação ou comunicação com os transeuntes ou usuários dos edifícios. Mas ao fazer essa classificação como uma resposta ao ambiente, a definição de ambiente da Teoria Geral dos Sistemas nos parece ampla o suficiente de modo a contemplar essa interação com sociedade como parte do mesmo. Essa comunicação performática estaria, portanto, inserida como uma interação com um dos elementos do ambiente, nesse caso, a sociedade em que está inserido, podendo ocorrer tanto no objeto estático quanto no dinâmico. Como sugere Adami (17), a estrutura e organização de um sistema fala sobre a codificação da sua relação com os elementos a sua volta, ou seja, a Arquitetura como discurso sobre seu ambiente.
Neste artigo a ênfase recaiu sobre os aspectos objetivos e materiais da evolução tecnológica que permitiu as atuais expressões em Performative Architecture. Entretanto, a dimensão de discurso, de comunicação do objeto, evoca a existência de um suporte não material para essas técnicas, uma base cognitiva, teórica, para esse desenvolvimento. Encontramos esse arcabouço em teorias que abarcam de Cibernética e Teoria Geral dos Sistemas aos estudos sobre Sistemas Complexos e Arquitetura Algorítmica, que foram investigadas mais profundamente em nossa pesquisa, e que serão publicadas oportunamente, dando sequência a este texto.
notas
1
ARMPRIEST, Diane; GULLING, Dana. Teaching Architecture Technology: Shifts in Subject Matter and Pedagogical Practices From 2006 to 200998th ACSA Annual Meeting Proceedings, Rebuilding. Anais... In: ACSA annual meeting. Bruce Goodwin & Judith Kinnard, 2010
2
PICON, Antoine. Achteture and the virtual towards a new materiality. 2004.
3
KOLAREVIC, Branko; MALKAWI, Ali. (EDS.). Performative Architecture. [s.l.] Routledge,
2005.
4
GROBMAN, Yasha; NEUMAN, Eran. (EDS.). Performalism: Form and Performance in Digital Architecture. New York: Routledge, 2012.
5
KOLAREVIC, Branko; MALKAWI, Ali. (EDS). Op. cit.
6
GERTNER, Jon. The Idea Factory: Bell Labs and the Great Age of American Innovation. [s.l.] Penguin Books, 2012.
7
Idem, ibidem.
8
MOE, Kiel. Automation takes command. In: CORSER, R. (Ed.). Fabricating Architecture: Selected Readings in Digital Design and Manufacturing. New York: Princeton Architectural Press, 2010. p. 152–167.
9
HERR, Christiane M. Generative Architectural Design and Complexity Theory. Generative Art
2002, p. 13, 2002.
10
KOLAREVIC, Branko.; MALKAWI, Ali. Op. cit.
11
GROBMAN, Yasha; NEUMAN, Eran. (EDS.). Op. cit.
12
NEUMAN, Eran. The collapsing of technological performance and the subject’s performance. In: Performalism: Form and Performance in Digital Architecture. New York: Routledge, 2012. p. 35.
13
Idem, ibidem, p. 33-36.
14
Idem, ibidem, p. 35.
15
SPRECHER, Aaron. Informationism: information as architectural performance. In: Performalism: Form and Performance in Digital Architecture. New York: Routledge, 2012. p. 27–31.
16
NEUMAN, Eran. Op. cit.
17
Adami, Christoph. What is Complexity?. BioEssays 24 (2002) 1085-1094.
sobre os autores
Daniel Lenz é aluno do programa de pós-graduação do curso de Arquitetura e Urbanismo da Unicamp.
Gabriela Celani é arquiteta e professora do curso de Arquitetura e Urbanismo da Unicamp.