Brak obrazka
Wiedza

Historia komfortu termicznego w architekturze

Data publikacji
01.12.2023
Autorstwo
Andrzej Klimek

Aby zrozumieć współczesny postulat zakończenia epoki komfortu cieplnego, wyrażony przez Daniela Barbera, trzeba będzie cofnąć się daleko w przeszłość. Pierwszym stosowanym w Europie przykładem rozprowadzania wytworzonego ciepła w obrębie domu był system ogrzewania podpodłogowego zwany hypocaustum, znany już w cywilizacji doliny Indusu w XX w. p. n. e. Być może stamtąd trafił przez Bliski Wschód do starożytnej Grecji w IV w. p. n. e., skąd 2000 lat temu dotarł do Rzymu, z którym już jest szerzej kojarzony dzięki temu, że funkcjonował chociażby w tamtejszych termach. Poza europejskim kręgiem kulturowym centralne ogrzewanie wynaleziono jeszcze wcześniej, gdyż bardzo podobny koreański system zwany ondol znaleziono na stanowiskach archeologicznych datowanych na około 5000 lat p. n. e. Później w Europie od XIV wieku stosowano piece kaflowe, które zostały zastąpione przez ogrzewanie z sieci miejskiej, należące do zdobyczy społecznych początków XX wieku. Tyle że przez te wszystkie lata projektanci budynków (bo nie zawsze byli to architekci) pełnili społeczną rolę rzemieślników i kierowali się przede wszystkim użytecznością, zatem nie robili czegoś, co by w niewytłumaczalny sposób podnosiło koszty ogrzewania. Od momentu mniej więcej pokrywającego się w czasie z przełomem modernistycznym w architekturze, rozpoczynają się współczesne starania o osiągnięcie optimum cieplnego. By zrozumieć ich logikę, co jest o tyle skomplikowane, że miało to miejsce w momencie, w którym architekci przestali kierować się prostą racjonalnością materialną, należy jednak wyjaśnić kilka pojęć.

Komfort cieplny, odkąd przestał być abstrakcją, a stał się pojęciem z dziedziny techniki, regulowany jest przez normy. W Polsce przez szereg lat obowiązywały polskie normy PN, wydawane przez Polski Komitet Normalizacyjny i po wejściu do Unii Europejskiej zostały ujednolicone z normami europejskimi EN.

Badania nad odczuwalnymi warunkami temperaturowymi we wnętrzu były prowadzone od lat sześćdziesiątych XX wieku przede wszystkim przez Duńczyka Ole Fangera. Warunki te mierzy się za pomocą wskaźnika PMV czyli Predicted Mean Vote. Jest on funkcją metabolizmu, oporności cieplnej odzieży, temperatury powietrza, średniej temperatury promieniowania, względnej prędkości powietrza oraz pięciu pomniejszych czynników. Później głosuje się w siedmiostopniowej skali od -3 (zimno) do +3 (gorąco). Jeśli wynik mieści się w przedziale -0,5<PMV<+0,5 to uważa się, że w pomieszczeniu będzie panował komfort cieplny. Tak samo jest z innym czynnikiem, czyli PPD (Predicted Percentage Dissatisfied). Jest to odsetek osób niezadowolonych z temperatury panującej w pomieszczeniu, czyli osób wybierających wartości -3, -2, +2, +3 i w przypadku komfortu powinien być on niższy niż 10%. Wszystko to określa norma PN-EN ISO 7730:2006 (Ergonomia środowiska termicznego. Analityczne wyznaczanie i interpretacja komfortu termicznego z zastosowaniem obliczenia wskaźników PMV i PPD oraz kryteriów lokalnego komfortu termicznego). Jak wynika z PMV, na komfort cieplny poza temperaturą powietrza wpływ mają też takie wielkości fizyczne jak różnica temperatur między przegrodami zewnętrznymi a powietrzem, gdyż kształtuje ona promieniowanie, a także w pewnym stopniu względną prędkość powietrza, zwłaszcza jeśli nie ma wentylacji mechanicznej. Przekładając to na konkrety, przy ciepłych ścianach w pomieszczeniu potrzeba niższej temperatury do osiągnięcia komfortu niż przy zimnych. Należy nadmienić, że w skład przegród zewnętrznych liczą się nie tylko ściany, ale także okna, drzwi i stropy. Jedynie styk z gruntem nie jest wliczany (przynajmniej tam, gdzie nie ma wiecznej zmarzliny).

Komfort termiczny nierozerwalnie związany jest z paradygmatem efektywności energetycznej budynku, dlatego że im niższa efektywność, tym więcej energii trzeba zapewnić, aby w budynku panował tenże komfort. Podstawowym pojęciem odpowiadającym za jej określanie jest współczynnik zwartości bryły czyli stosunek pola powierzchni przegród zewnętrznych budynku do jego objętości, zwany A/V, o którym będzie sporo w części poświęconej historii.

W związku z tym, że chłodne promieniowanie od zimnych przegród i mostki termiczne, czyli miejsca, gdzie z uwagi na konstrukcję przegrody ciepło ucieka na zewnątrz, wpływają niekorzystnie na komfort termiczny w pomieszczeniach, zaczęto go optymalizować jeszcze na długo przed tym, zanim zaczęto myśleć o redukcji spalania paliw kopalnych celem zmniejszenia emisji dwutlenku węgla do atmosfery. Dzieje się tak, ponieważ zimne ściany wywołują niekorzystny mikroklimat we wnętrzu, a jeśli punkt rosy znajdzie się po wewnętrznej stronie przegrody, wtedy wykrapla się para wodna zawarta w powietrzu i w efekcie łatwo jest o powstanie pleśni. Z tego też powodu tak ważne jest odpowiednie zaizolowanie miejsc potencjalnego występowania mostków termicznych. Nie chodzi jedynie o niezdrowy mikroklimat, który wywołuje pleśń, ale także o to, że w wyniku zawilgocenia materiały tracą swoje właściwości termoizolacyjne i w efekcie mostki termiczne stają się coraz większe, to znaczy przepuszczają coraz więcej energii z wnętrza.

Wracając do historii i momentu, w którym przerwaliśmy wywód, na przestrzeni XIX wieku, czyli bezpośrednio przed przełomem modernistycznym, doszło do wzrostu pozycji architekta w społeczeństwie. Stało się to dzięki wzrostowi zainteresowania społeczeństwa powstającą architekturą poprzez prasę jako praktycznie jedyny ówczesny środek masowego przekazu, a także poprzez rozwój organizacyjny firm architektonicznych. W efekcie tych dwóch procesów projektanci mogli zacząć chcieć być kimś więcej niż rzemieślnikami, a nawet artystami. Dlatego też, stosując terminologię Pierre’a Bourdieu, pole architektury zyskało wyraźniejszy podział na wysoki i niski rejestr i ten pierwszy zaczął dążyć w kierunku autonomii od dyktatu wąsko pojmowanej użyteczności na rzecz spełniania ważnych celów społecznych. Z tego też powodu wówczas zaczęła się epoka wysokiej energochłonności – architekci projektowali budynki tak, aby dało się w nich mieszkać, ale na pewno nie stawiali na pierwszym planie czynnika energii, której trzeba będzie dostarczyć do ogrzania danej budowli.

Wieżowiec jako typ budynku ma co prawda rodowód ściśle podporządkowany rynkowej logice, jednak został przejęty przez modernistów, także tych bardziej socjalnie zorientowanych. Przyjmuje się, że pierwszym drapaczem chmur był nowojorski Flatiron Building Daniel Burnhama z 1902 r. Pojawienie się na Manhattanie tego nowego rodzaju budowli wiąże się z faktem, że ceny działek w centrach miast były bardzo wysokie, natomiast ceny opału na tyle niskie, że parcele opłacało się zagospodarować w taki sposób, przy braku jednoczesnych barier planistycznych. Wysokościowiec stał się jednak tak silnym i czytelnym symbolem nowoczesności, że został oderwany przez modernistów od merkantylnego kontekstu, w którym wyrósł i wszystkie najważniejsze niezrealizowane projekty miast przyszłości Le Corbusiera (Ville Contemporaine, Ville Radieuse, Plan Voisin) składały się już praktycznie tylko z nich, gdyż dawały one słońce, przestrzeń i zieleń, czyli trzy nadrzędne wartości tego architekta.

O ile Le Corbusier był w dużej mierze teoretykiem, Ludwig Mies van der Rohe znany jest bardziej jako architekt drapaczy chmur, które w rzeczywistości postawiono, chociaż jak na dzisiejsze standardy nie było ich bardzo wiele. Swobodna elewacja, która została uwolniona od funkcji nośnej – trzeci z punktów modernizmu Le Corbusiera – został przez Niemca intensywnie rozwinięty w ścianach osłonowych nie tylko wieżowców, ale i niższych budynków. Pierwszymi na świecie wysokościowcami o całkowicie przeszklonych elewacjach były apartamentowce przy 860-880 Lake Shore Drive w Chicago, wzniesione w latach 1948-1952, choć najbardziej znanym dziełem Miesa jest sześć lat późniejszy Seagram Building na Manhattanie. Biorąc pod uwagę fakt, że dopiero pod koniec XX wieku udało się stworzyć systemowe ściany szklane o przewodności cieplnej na tyle niskiej, żeby zapewniać przyzwoity komfort termiczny, uwaga Daniela Barbera, że powojenny modernizm ze swoimi wieżowcami był najbardziej energochłonnym stylem w architekturze, wydaje się być godna rozważenia.

Współczynnik A/V dla piętnastometrowego (czterokondygnacyjnego) budynku na planie kwadratu o boku 20 metrów wynosi 0,27, a dla stumetrowego wieżowca na planie takiego samego kwadratu – 0,2. Dla domu pasywnego parametr zwartości bryły wynosi zazwyczaj ponad 0,75, przy czym ciężko jest przekroczyć wartość 1 z uwagi na konieczność dostosowania budowli do wymiarów człowieka. A/V dodatkowo zmniejsza inny z punktów obowiązkowych Corbusierowskiego modernizmu, czyli konstrukcja domu na wolno stojących słupach (fr. pilotis), które pozostawiają wolny parter. Na obronę jego dogmatów należy powiedzieć jednak, że o ile ogród na dachu nie ma wpływu na współczynnik zwartości bryły, o tyle dobrze wpływa na izolacyjność termiczną dachu i jest bardzo korzystny dla zmniejszania efektu miejskich wysp ciepła. Pozostając przy architekturze organicznej, tak lubiane do dzisiaj ze względu na zacieranie granic między wnętrzem a zewnętrzem pawilony z wewnętrznymi patio mimo niewielkiej wysokości mają niskie A/V. W dodatku znów budowano je przy użyciu dwudziestowiecznej stolarki okiennej i ślusarki drzwiowej, które mają tam duży udział w przegrodach wobec ścian, co owocuje dużymi stratami ciepła z pomieszczeń i koniecznością ich intensywnego dogrzewania.

Po II wojnie światowej i rozwiązaniu Międzynarodowego Kongresu Architektury Nowoczesnej CIAM w 1959 r. pojawiły się różne nurty modernizmu nietraktujące zasad Le Corbusiera w sposób ortodoksyjny. Jednym z nich był strukturalizm, którego cechą rozpoznawczą były megastruktury, czyli wielkie budowle, starające się być „całym miastem pod jednym dachem”. Choć w tych słowach jest nieco przesady, zazwyczaj struktury te łączyły poszczególne jednostki za pomocą krytych pasaży pieszych i generalnie przenosiły do swoich wnętrz część przestrzeni publicznych. Ze względu na wielkość i konieczność dostępu światła słonecznego do większości pomieszczeń zazwyczaj nie jest możliwe, aby taką megastrukturę umieścić w jednym gigantycznym prostopadłościanie, więc znów ich skomplikowane geometrycznie kształty mają zazwyczaj niski współczynnik A/V. Jest to o tyle dyskusyjne, że czasem chęć zmieszczenia bardzo wielkiej kubatury pod jednym dachem była uzasadniona funkcją, a czasem podyktowana zwykłą chęcią postawienia spektakularnie wielkiej budowli.

Wysadzenie w powietrze osiedla Pruitt-Igoe w Saint Louis 15 lipca 1972 r. uważa się za symboliczny koniec epoki modernizmu w świecie zachodnim i początek postmodernizmu. Bezpośrednio po tym wydarzeniu, w latach siedemdziesiątych muzea zaczęły przejmować przewodnią funkcję najbardziej prestiżowych zleceń projektowanych przez najsłynniejszych architektów, zarezerwowaną dotąd dla wieżowców. W latach osiemdziesiątych część postmodernistów skręciła w stronę dekonstruktywizmu, który wraz z okołomodernistycznymi stylami high-tech i minimalizmem stał się podwaliną dla starchitektury, czyli zjawiska globalnego gwiazdorstwa w architekturze, opartego na paradygmacie estetycznym, ale istniejącego ponad estetycznymi podziałami.

Jak się wtedy okazało, niekorzystny wpływ budynków na środowisko nie musi być związany z pochłanianiem przez nie dużych ilości energii. Reprezentant pierwszego z tych stylów, a do tego najprawdziwszy gwiazdor – Frank Gehry – nie dość, że projektował budynki o mocno rozrzeźbionych bryłach, to jeszcze zaliczył spektakularną wpadkę związaną z oddziaływaniem gmachu jego autorstwa na otoczenie zewnętrzne. Sala koncertowa im. Walta Disneya w Los Angeles była projektem przełomowym dla współczesnej architektury, choć jako realizacja przyćmiło ją Muzeum Guggenheima w Bilbao tego samego autora, zaprojektowane nieco później, lecz oddane do użytku jako pierwsze. Wynikało to z wolnego tempa prac, na które wpłynęło dwukrotne zawieszenie robót budowlanych, za każdym razem trwające ponad rok i będące skutkiem braku dostatecznych środków finansowych. Ów przełomowy charakter obu tych projektów polegał na zastosowaniu w nich po raz pierwszy na większą skalę powierzchni zakrzywionych względem wszystkich trzech osi, wyznaczonych za pomocą programów komputerowych używanych w lotnictwie. W trakcie jednej z przerw z przyczyn oszczędnościowych kamienną okładzinę zastąpiono wykonaną ze stali nierdzewnej i stało się to przyczyną późniejszych problemów. Kiedy ukończono kalifornijski projekt w 2003 r., okazało się, że blacha działa jak soczewka skupiająca promienie słoneczne, a powstała temperatura jest tak wysoka, że sąsiadujące chodniki topią się. Taki stan rzeczy był nie do przyjęcia, więc w 2005 r. budynek musiano poddać renowacji, w ramach której zmatowiono najbardziej kłopotliwe powierzchnie. To nie jest zwykły przypadek błędu projektowego, które zdarzają się wielkim architektom równie często jak tym całkiem przeciętnym: dach może przeciekać każdemu, jeśli się odpowiednio nie dopilnuje wykonawców, tym bardziej w rozwiązaniach pionierskich. Kazus Gehry’ego to wynik pewnej logiki i systemu wartości, który jest osadzony w paradygmacie estetycznym tak mocno, że zapomina o całym otoczeniu projektowanego budynku. Oczywiście możemy też mieć do czynienia z przypadkiem odwrotnym, czyli całkowitym zacienianiem sąsiadów, jednak jest ono zabronione w większości krajów, gdzie światło słoneczne nie jest czymś, co przez cały rok jest w nadmiarze.

Inne przypadki starchitektury nie były aż tak spektakularne w zaburzaniu komfortu termicznego, ale ich projektowane z myślą o wizualnej efektowności bryły sprawiają, że nie są to budynki same z siebie efektywne energetycznie. Oczywiście można je takimi uczynić, np. dzięki rozbudowanym systemom paneli fotowoltaicznych, ale pozostaje to droższe i trudniejsze niż gdyby podjąć te działania wobec zwykłego budynku. Nawet w innych niż dekonstruktywizm stylach w starchitekturze – minimalizmie i high-techu – występuje problem z efektywnością energetyczną, gdyż na przykład potężne nadwieszenia sprawiają, że należy kompensować straty ciepła odbywające się przez nie. Jeśli zaś odpowiednio niska przewodność termiczna jest wymuszona przez przepisy budowlane, wówczas pojawiają się inne problemy. Na przykład ulubiony materiał ścienny minimalistów czyli béton-brut nie może już być materiałem „szczerym” w sensie modernistycznym, gdyż aby spełniał przepisy, musi mieć w sobie warstwę izolacji.

Żeby nie pozostawić wyłącznie czarnego obrazu starchitektów jako nieczułych na sprawy środowiskowe, należy nadmienić, że Renzo Piano na przykład już w 2000 r. zaprojektował muzeum historii naturalnej California Academy of Sciences w San Francisco, oddane do użytku w 2008 r. Wyróżnia się ono szeregiem proekologicznych innowacji, między innymi przekryte jest zielonym dachem o powierzchni jednego hektara. Dodatkowo zdołano na nim umieścić aż 60 tysięcy ogniw fotowoltaicznych oraz naturalnie doświetlić aż 90% pomieszczeń. Oprócz tego w budynku tym na bardzo szeroką skalę zastosowano materiały pochodzące z recyklingu. I tak oto pochodzi z niego 15 tysięcy metrów sześciennych użytego betonu, pięć tysięcy ton stali, a ocieplenie ścian wykonane jest ze skrawków używanego jeansu. Poza tym w budowli wytwarzanych jest o połowę mniej ścieków w porównaniu z poprzednią, mniejszą siedzibą tej placówki, a do nawadniania dachu i roślin używana jest deszczówka.

Z kolei na tegorocznym Biennale Architektury w Wenecji zaprezentowano Essential Homes Research Project, powstały w ramach współpracy Fundacji Normana Fostera z firmą Holcim. Wbrew nazwie sugerującej projekt badawczy, prototyp domu opuścił deski kreślarskie na dobre i był możliwy do zwiedzania w całkowicie materialnej formie. Jego stworzenie miało na celu udowodnienie, że budownictwo ekologiczne nie musi być ekskluzywne, tzn. ograniczone do inwestorów, których na nie stać, ani też do posiadających dostęp do odpowiednio wyedukowanych ekspertów i że może mieć charakter masowy, gdyż tylko taki jest w stanie dać odpór nadchodzącym zmianom klimatycznym. Deklarowany ślad węglowy tego domu jest o 70% niższy w porównaniu z tradycyjnymi konstrukcjami. Celowo nie używam słowa „budynek”, gdyż w polskiej terminologii oznacza on budowle trwale związaną z gruntem, tymczasem Essential Home został pomyślany jako konstrukcja, którą łatwo rozebrać i przenieść w inne miejsce, tak aby był możliwy do szybkiego zasiedlenia na przykład przez uchodźców. Jego zewnętrzna powłoka składa się z betonowych arkuszy dostarczanych w rolkach, które możliwe są do ponownego użycia lub poddania recyclingowi, tak zresztą jak i wszystkie z modularnych konstrukcyjnych komponentów domu.

Modernizm zwany jest także stylem międzynarodowym, co jest o tyle prawdą, że po II wojnie światowej obowiązywał po obu stronach żelaznej kurtyny, więc historia komfortu termicznego w Polsce nie różni się zanadto od tej powszechnej. Jedyna różnica, jaka zachodzi, to ta, że za czasów realnego socjalizmu dbano o to, żeby nie marnować za dużo węgla przez spalanie go w piecach w nieefektywny sposób, co oficjalnie uzasadniano szacunkiem dla ciężkiej pracy górników i troską o polski przemysł, podczas gdy w rzeczywistości chodziło przede wszystkim o możliwość wyeksportowania „czarnego złota” i poprawę bilansu płatniczego kraju. Historia ekonomiczna wydobycia węgla w PRL-u to zresztą temat na oddzielną rozprawę.

Kwestia zatrzymania rozwoju emisji gazów cieplarnianych w budynkach weszła na agendę tak naprawdę dopiero w drugiej dekadzie XXI wieku. Wcześniej albo projektowano w sposób efektywny energetycznie, gdyż tak nakazywała racjonalność materialna, albo po prostu w sposób niezbyt efektywny, choć w żadnym wypadku nie należy uważać tego zdania jako wyrazu poparcia dla pierwszego podejścia, czyli architektury historycznej. Część architektów potraktowało tę nową kwestię jako wyzwanie współczesności, któremu należy sprostać, część zaś, zwłaszcza z najwyższego rejestru, stara się spełniać nowe przepisy, ale w swojej logice projektowej pozostaje wierna paradygmatowi estetycznemu.

Alternatywą wobec architektury historyzującej, modernistycznej lub gwiazdorskiej są domy pasywne, których koncept powstał pod wpływem kryzysu naftowego lat siedemdziesiątych, albo budynki zero- i plusenergetyczne (najbardziej znana wczesna realizacja tego typu to londyńskie osiedle BedZED z 2000 r.), które różnią się od tych pierwszych większym udziałem aktywnych technologii pozyskiwania energii i w których przypadku także przyjęte założenia oparte na ograniczaniu emisji dwutlenku węgla do atmosfery mocno wpływają na ich wygląd. W 2010 r. planowano, że już w 2020 r. wszystkie nowe budynki stawiane w Unii Europejskiej będą musiały mieć bilans energetyczny bliski zera, jednak założenie to okazało się zbyt ambitne i datę tę odsunięto w przyszłość, tak że obecnie dyrektywa 2010/31/UE ma wejść w życie w 2030 r. W każdym razie budynki pasywne nie budzą entuzjazmu Barbera jako zbyt nieludzkie i rzeczywiście, niełatwo się żyje, kiedy trzeba zmienić większość typowych przyzwyczajeń, np. nie można otworzyć okna ani wyłączyć wentylacji mechanicznej. Pytanie, czy projektowanie bioklimatyczne już stało się nowym stylem albo czy kiedyś zostanie za taki uznany, o ile oczywiście wcześniej historia sztuki pod wpływem tekstów Bourdieu nie odrzuci pojęcia stylu jako zdyskredytowanego.

Inne zasoby

Zobacz Działanie Działanie

Białystok: Wspólnota międzygatunkowa. Sąsiedzkość natury