Grupy dyskusyjne   »   pl.soc.polityka   »   Prof. Zbigniew Rudy nie wierzy w pancernÄ… brzozÄ™

Prof. Zbigniew Rudy nie wierzy w pancernÄ… brzozÄ™

Data: 2012-06-20 00:10:42
Autor: Przemysław W
Prof. Zbigniew Rudy nie wierzy w pancernÄ… brzozÄ™

Wyrwa w ciągłości parametrów lotu

Maciej Lasek broni tez zawartych w raporcie komisji Millera. Ale komisja nie przeprowadziła żadnych symulacji, aby zbadać przyczyny, jakie mogły doprowadzić do katastrofy smoleńskiej, co w takich badaniach jest rutynową praktyką Profesor Zbigniew Rudy nie ma zastrzeżeń do modelu komputerowego, jaki zastosował przy badaniu katastrofy smoleńskiej prof. Wiesław Binienda

Z prof. Zbigniewem Rudym z Instytutu Fizyki Uniwersytetu Jagiellońskiego rozmawia Anna Ambroziak

Jak Pan ocenia metodologię badań prof. Wiesława Biniendy?

- Jako naukową. Została ona oparta na beznamiętnym sprawdzaniu, czy proponowany model w danej sytuacji może dać jakąś odpowiedź, np. pomóc w określeniu, czy zajście zjawiska jest w ogóle możliwe. Każdy proces, który jest oparty na zjawiskach fizycznych, podlega modelowaniu; a językiem tego modelowania jest matematyka.

Przy każdym modelowaniu występuje jednak jakiś margines błędu.

- To jest związane z tym, że kiedy przedstawia się dane zjawisko fizyczne w postaci równań matematycznych, należy poddać je tzw. dyskretyzacji. Im stopień dyskretyzacji jest większy (elementarne komórki, na które dzielimy problem, są mniejsze), tym odtworzenie rzeczywistości w modelowaniu jest lepsze, bardziej precyzyjne. Jeśli ktoś chce poprawić dokładność symulacji na przykład 10 razy, to kosztuje go to tysiąc razy więcej mocy obliczeniowej. Dlatego w pewnym momencie należy zrobić tzw. uproszczenie - musimy powiedzieć sobie, że w tym momencie na większą dokładność nas nie stać, aby modelowanie mogło się zakończyć w akceptowalnym czasie. Obliczenia oparte na tzw. metodzie elementów skończonych (to matematyka), które zastosował prof. Binienda, pozwalają na wykonanie symulacji zjawisk w komputerze. Tę samą metodę stosuje się np. przy budowie mostów; zanim powstanie most realny, wirtualnie buduje się i symulacyjnie sprawdza właściwości setek mostów, które można by wybudować.

Poda Pan jakieś inne przykłady?

- Choćby wykonanie symulacji tego, jak wyglądałby wybuch atomowy. Kraje zaawansowane technologicznie (czyli te, które posiadają bardzo wydajne komputery) nie dokonują już rzeczywistych wybuchów jądrowych. Co nie znaczy, że tych wybuchów już nie ma. Między innymi dlatego udało się podpisać umowy o ograniczeniu rozwoju broni atomowej. Wybuchy te nie zachodzą już na powierzchni ziemi, w wodzie czy powietrzu - robi się ich symulacje komputerowe. Kraje technologicznie zacofane, jak Korea Północna, muszą dokonywać wybuchów jądrowych na swoich poligonach; Stany Zjednoczone od dziesiątków lat wybuchów prawdziwych nie przeprowadzają. I kontrolują, aby instalacje komputerowe wielkich mocy nie docierały do Korei Północnej czy Iranu. Każde badanie naukowe jest obarczone błędem. Dlatego zawsze warto wszystko dobrze zmierzyć, by można było dane zjawisko odtworzyć za pomocą komputerów startujących z samych danych początkowych. W przypadku modelowania katastrof może się jednak okazać, że człowiek przeoczył coś, co jest bardzo istotne, coś ważnego dla wyników. To dlatego tak wartościowe są programy/pakiety symulacyjne, które zostały pozytywnie zweryfikowane metodą porównania wyników symulacji z rzeczywistym zdarzeniem/katastrofą.

Profesor Binienda posłużył się w swoich obliczeniach najnowszą wersją programu LS-DYNA. Jak Pan ocenia to narzędzie?

- Pan profesor jest jednym z użytkowników tego programu, który zmieniał się na przestrzeni aż 20 lat (został w szczególności wykorzystany przy modelowaniu katastrof amerykańskich promów kosmicznych). Każda kolejna jego wersja jest coraz lepsza. Pan profesor, który gościł ostatnio na Uniwersytecie Jagiellońskim, pokazywał np. symulacje, w których zastosował materiał w postaci płyty (tzn. wirtualnie w programie symulował jego zachowanie). Widać było, jak pewien obiekt nadlatuje nad tę płytę, rozprasza się na niej i płyta zaczyna drgać. Te drgania były mierzone. Pan profesor pokazywał, jakie są symulacje komputerowe, które określają, jakie powinny być drgania tej płyty, a z drugiej strony pokazywał coś, co było sprawdzeniem eksperymentalnym, jakie drgania zostały zmierzone przez zestaw czujników. Okazywało się, że symulacje i efekt doświadczalny znakomicie się ze sobą zgadzały. Oznacza to, że model komputerowy dobrze odtwarzał rzeczywistość. To był ten element, który wskazywał na to, że program został przesymulowany na prawdziwych zdarzeniach fizycznych. Chciałbym tu jednak zwrócić uwagę na coś, co jest pomijane w relacjach z prezentacji prof. Biniendy. Otóż nie pokazał on jednej rzeczy, a mianowicie symulacji elementów powłoki promu kosmicznego dotyczących katastrofy wahadłowca Columbia. Ale przypuszczam, że po prostu nie mógł. Sądzę, że te dane są objęte tajemnicą państwową. Zbyt wiele z samego przedstawienia takich wykresów można by się dowiedzieć o materiałach konstrukcyjnych powłoki promu, a to są supertajne dane. Są to technologie wojskowe. Na dowód, jak niewielkie przeoczenie może być istotne, przytoczę przykład. Zaraz po zakończeniu wojny w Europie zgromadzono niemieckich fizyków atomowych w jednym miejscu; w dniu zrzucenia bomby atomowej na Hiroszimę powiadomiono ich o tym, a "opiekujący" się nimi fizyk amerykański powiedział jedno zdanie o reflektorze neutronów - to wystarczyło tej grupie niemieckich fizyków, żeby znaleźli swoje przeoczenie, dzięki któremu Hitler nie zdążył zbudować swojej broni atomowej; zajęło im to tydzień. Ale to, co pokazał pan profesor, przekonało mnie, że ten program został gruntownie przeanalizowany na różnych danych eksperymentalnych, a symulacje z wielką dokładnością odtworzyły wyniki eksperymentu.

Pod adresem Biniendy często jednak pada zarzut, że nie znamy jego danych wejściowych i dlatego wykonanej przez niego symulacji nie można należycie powtórzyć. Zauważył Pan jakieś braki w jego symulacjach?

- Nie potrafię tego ocenić. Dane wejściowe to są liczby. Profesor Binienda wyświetlił je na tablicy. Były absolutnie rozsądne.

RozsÄ…dne? To znaczy jakie konkretnie?

- To znaczy takie, które odpowiadają wartościom parametrów materiałów, jakie tworzą skrzydło duraluminiowe oparte na dźwigarach stalowych samolotu, tudzież w przypadku drzewa - parametry opisujące pewien obiekt trójwymiarowy, jaką była owa brzoza. Te parametry były w pełni poprawne. Co oznacza, że niepoważne są twierdzenia typu: skąd Binienda wiedział, jaka jest wytrzymałość skrzydła, skoro tego skrzydła faktycznie nie ma. Jeśli zna się materiały i sposób konstrukcji, to korzystając z metody elementów skończonych, można wykonać konkretną symulację. To nie jest rzecz, która wchodzi jako dane, ale rzecz, którą się otrzymuje na podstawie elementarnych własności ciała stałego, jego własności mechanicznej. Profesor Binienda zastosował klasyczne podejście do metody elementów skończonych. Naukowiec korzystał z programu symulacyjnego LS-DYNA, który zastosowano także do badań nad katastrofą amerykańskiego wahadłowca Columbia. A więc programu symulacyjnego, który przeszedł bardzo gruntowną weryfikację. Wobec tego moje zaufanie do jego metodologii badań gwałtownie rośnie. Przy okazji - prof. Binienda symulował zachowanie skrzydła, które nie ma defektów wewnętrznych. Posiadanie szczątków skrzydła umożliwiłoby badania mikroskopowe struktury materiału budującego skrzydło i np. ustalenie, że takich defektów nie było, to dlatego tak ważne w przypadku katastrofy jest zebranie elementów obiektu, który uległ katastrofie.

Przyjmuje Pan możliwość, że konstrukcja skrzydła była np. wcześniej osłabiona?

- Tego nie wiemy. Ale nie jest niemożliwe, że było jakieś mikropęknięcie, które unaoczniło się w pewnym momencie. Nie mogę wykluczyć też tego, że podczas remontu Tu-154M ktoś dokonał jakiejś nieuprawnionej ingerencji, na przykład zmienił elementy dźwigara. Rodzi się pytanie, czy remont był dostatecznie zabezpieczony.

Pamięta Pan film zarejestrowany przez rosyjską telewizję Rossija 1? Po pokładzie samolotu swobodnie chodzą rosyjscy dziennikarze oprowadzani przez pracowników "Awiakoru" w waciakach.

- Widoczne było, że pewna grupa ludzi miała dostęp do naszego rządowego samolotu. A nigdy nie wiadomo, czy ci ludzie są uczciwi czy nie. Nie można wykluczyć, że podczas remontu zdarzyło się coś takiego, co osłabiło skrzydło. Tym bardziej konieczne było zebranie wszystkich elementów samolotu.

Po dwóch latach można jeszcze to zbadać?

- Tak, pod warunkiem, że dany fragment samolotu istnieje. Można zbadać i uzyskać wiążącą odpowiedź.

Czy wstrząsy widoczne na wykresie parametrów lotów mogły być wywołane przez zderzenia samolotu z innymi przeszkodami niż drzewa?

- W niektórych sytuacjach jest tak, że obie hipotezy dotyczące tego samego zjawiska są fałszywe. W zapisie parametrów lotów tupolewa występuje tzw. brak ciągłości zapisu. Ale to jest weryfikowalne. Skoro osoba A dostrzegła coś, co polega na zaobserwowaniu takiej, a nie innej ciągłości parametrów lotu, a które interpretuje jako efekt takiego, a nie innego zdarzenia, to inna osoba nie może zaprzeczyć, że tej ciągłości nie było. Chyba że tych danych w ogóle nie ma. Trzeba zacząć od tego, czy ta ciągłość była czy nie. Jeśli była, to pierwsze pytanie jest takie, co gwałtowną zmianę wywołało. Na pewno 10 kwietnia 2010 roku stało się coś, co było niezwykłe. Co? Tego nie wiem. Ale dziś mogę na pewno stwierdzić, że drzewo ma zbyt małą masę, stawia za mały opór, by takie drgnięcie wywołać. Nie mogę wykluczyć, że był to jakiś inny obiekt. Warto więc przyjrzeć się temu, czy ten efekt można odtworzyć w symulacjach komputerowych. Chciałbym zobaczyć, jaka ilość energii, w jakiej objętości i w jakim czasie musiała się wydzielić, by wywołać takie, a nie inne drgnięcie. Inaczej mówiąc: jaka moc i w jakim okresie musiała zadziałać, by wywołać takie, a nie inne zaburzenia w ciągłości parametrów lotu. To nie jest tania symulacja. W mojej ocenie, suma, którą należałoby wydać na wykonanie wszystkich ewentualnych symulacji związanych z lotem samolotu Tu-154 M i jego rozpadem, mogłaby sięgać nawet 20 mln dolarów. Przy wszystkich wielkich katastrofach - nie tylko lotniczych - tego rodzaje symulacje przeprowadza się po to, by następne obiekty, które poruszają się ruchem dynamicznym - nie tylko samoloty - były bardziej bezpieczne.

Ale Komisja Badania Wypadków Lotniczych Lotnictwa Państwowego, która analizowała przyczyny katastrofy smoleńskiej, takich symulacji nie przeprowadziła. Jak Pan ocenia, jako naukowiec, rezygnację z tego rodzaju badań?

- Zupełnie tego nie rozumiem. Tak samo tego, dlaczego badania tej tragedii nie rozpoczęto od zgromadzenia wszystkich szczątków samolotu w takiej postaci, w jakiej się rozpadły. Najpierw powinno zrobić się zdjęcia ich rozrzutu, a potem składa się je wszystkie w jedno miejsce odpowiednio do tego przystosowane (dla samolotu najlepszy jest hangar lotniczy). Po to, by można było ocenić, czego na przykład nie warto poddawać później symulacji, a na co z kolei skierować główny wysiłek symulacyjny. Tego ewidentnie nie zrobiono, a to bardzo istotna kwestia. Spróbuję to zobrazować: jest pewien eksperyment, w którym pewna część danych jest nieznana z tego powodu, że jakiś element zaginął lub uległ tak silnemu zniszczeniu, że jedyne, co można zrobić, to wysymulować jego kształt tuż przed momentem jego zniszczenia. Wtedy wiadomo, na który element symulacji trzeba zwrócić szczególną uwagę. Tak było z wahadłowcem Columbia, ocalała tylna część ogonowa - eksperymentalnie ustalono, że na tej części wahadłowca nie działały siły, które doprowadziły do jej zniszczenia. Tak więc wszystkie symulacje tego elementu, które wykazywałyby, że ta część zostałaby zniszczona, można było odrzucić; to bardzo silny warunek graniczny, który symulacje musiały odtworzyć. Każdy, kto zajmuje się naukami przyrodniczymi, kieruje się następującą zasadą - im więcej mamy danych, tym bardziej one są restrykcyjne w stosunku do wniosków, które możemy wysnuć (powiedzenie: rozwiązanie zależy od warunków brzegowych; im więcej warunków, tym bardziej rozwiązanie staje się jednoznaczne). Jeżeli rezygnuje się z danych eksperymentalnych, poszerza się pasmo niepewności. Przy typowej katastrofie - samochodowej, morskiej, lotniczej - konieczne jest zebranie wszystkich możliwych rzeczy. Tego zabrakło po katastrofie smoleńskiej - nie zebrano tych danych, które mają znaczenie dla ustalenia jej przyczyn. Ponadto te szczątki to są także elementy technologiczne! Po 10 kwietnia 2010 roku zgłaszane są natomiast elementarne wątpliwości świadczące o tym, że stan psychiczny załogi miałby być niezwykły. W dwóch raportach - MAK i komisji Millera - pojawiła się sugestia, że załoga tupolewa postanowiła wylądować bez względu na to, co się stanie. Ja w to nie wierzę. To byli doświadczeni piloci z kilkoma tysiącami godzin nalotu. Tysiąc razy lądowali i nie tylko wiedzieli, ale za każdym razem czuli, jakim wysiłkiem dla samolotu jest wytrzymanie kontaktu z ziemią. Zresztą okazało się, że błędu w pilotażu nie było, co wykazali potem biegli z krakowskiego Instytutu Sehna. Obalono też argument pozamerytoryczny o rzekomych naciskach gen. Błasika na załogę. Opieranie raportu na oskarżeniu załogi, że poddana naciskom chciała lądować za wszelką cenę, okazało się bezpodstawne. Upadła też koncepcja o tym, że tupolew był niesprawny. To fakt, że był samolotem leciwym i staromodnym, ale to nie znaczy, że był niesprawny, był przecież po przeglądzie technicznym. Jest też mało prawdopodobne, by miał w sobie wady ukryte, latał przecież po remoncie. My, fizycy, wyznajemy taką zasadę - jeżeli coś żyje czas A, to bardzo prawdopodobne, że jeszcze czas A pożyje. To dotyczy też obiektów poddanych nieustannym zawirowaniom czynników fizycznych, a więc takich jak m.in. samoloty. Przez pewien czas funkcjonowało przekonanie, że tupolew musiał ulec katastrofie, bo miał identyczne silniki jak dwa polskie iły, które uległy awarii. Mam na myśli ów ił, który rozbił się w Lesie Kabackim. Tam w silniku uległo zerwaniu połączenie wału z turbiną pośredniego ciśnienia. Był to ewidentny błąd konstrukcyjny. A Tu-154 M otrzymał nowe silniki, na żądanie strony polskiej (zapłacono ekstra za silniki i montaż)! Były to silniki również produkcji sowieckiej, ale bardziej nowoczesne, zużywające mniej paliwa, bardziej stabilne, które nie podlegały awariom (silniki prawie identyczne jak w myśliwcu MiG-31, pozbawione tylko tzw. dopalacza ciągu, gdyż Tu-154M jest samolotem poddźwiękowym i dopalacz powiększający siłę ciągu kosztem drastycznego wzrostu zużycia paliwa jest mu zbędny). To był jeden z powodów, dla którego przy oznaczeniu tego samolotu pojawiła się literka M - modyfikacja. Wyposażono go też w całą masę elementów elektronicznych, wspomagających pilotaż.

Czy maszyna tej wielkości na takiej wysokości mogła wykonać półbeczkę rotacyjną wzdłuż osi podłużnej?

- Mogła. Ale to, czy to zrobiła, zależy od własności aerodynamicznych obiektu w momencie przed wykonaniem owej półbeczki. Tu nie można formułować kategorycznie, że to nie było możliwe. Powiedzenie, że coś jest niemożliwe, oznacza, że naprawdę jest niemożliwe; to nie to samo, co powiedzenie, że coś jest mało prawdopodobne. Jakie były warunki początkowe procesu, który miał doprowadzić do niekontrolowanego wykonania przez samolot półbeczki, czy ktoś je zna, czy też uznanie, że samolot wykonał półbeczkę, to wynik zgadnięcia bądź głosowania komisji. Nie wiem, jak wyglądał układ klap skrzydła, jakie dziury były albo nie były w tym momencie w kadłubie, czy mogły się pojawić siły, które spowodowały, że samolot obrócił się do góry grzbietem. To musi być dysymulowane. Inaczej udzielenie odpowiedzi na to pytanie nie będzie możliwe.

Ale komisja Millera stawia tezę o półbeczce w oparciu o pomiary ciętych gałęzi. Czy taka teza jest w takim razie w ogóle uprawniona?

- Nie potrafię rozstrzygnąć, pozostaję nieprzekonany.

Utrata 10 proc. powierzchni skrzydła oznacza, że siła nośna samolotu zmniejszyła się o 10 procent?

- W samolocie kadłubowym (w znaczeniu - to nie kształt typu "latającego skrzydła") siła nośna, czyli ta, która utrzymuje samolot w kierunku pionowym, wypracowywana jest przez przepływ hydrodynamiczny wokół skrzydła (samolot wisi w powietrzu na skrzydłach; jest to tym bardziej dobry opis, im dalej jesteśmy od prędkości dźwięku). Z dobrym przybliżeniem jest ona proporcjonalna do powierzchni skrzydła.

Doktor Wacław Berczyński uważa, że utrata siły nośnej mogła wynieść najwyżej 5 procent.

- Można tu zastosować wzór Żukowskiego, który podaje, jaka jest zależność wielkości tej siły od powierzchni skrzydła. Jeśli gubi się kawałek skrzydła, to tyle a tyle zmniejsza się siła nośna. Tu trzeba wziąć pod uwagę rezerwę siły nośnej. Dla każdego samolotu tzw. obciążenie skrzydła jest inne. Chodzi o to, jaki ciężar może udźwignąć jeden metr skrzydła. Tupolew jest samolotem, który ma ogromną rezerwę tego obciążenia - wynikało to z tego, że tupolewy były przeznaczone do lądowania w trudnych warunkach, na słabo przygotowanych lotniskach. To znaczy, że siła nośna, jaka jest wyprodukowywana na jego skrzydłach, jest z ogromnym zapasem w stosunku do tego, czego mu potrzeba. Tak więc utrata kawałka skrzydła niewiele mu przeszkadza i nie powoduje, że tej siły nośnej mu brakuje.

Jak Pan ocenia raport komisji Jerzego Millera?

- Moje odczucie jest takie - poszukiwano wyjaśnienia pozatechnologicznego. Czyli: załoga chciała wylądować za wszelką cenę, była pod naciskiem, a w dodatku jeszcze być może samolot był niesprawny, być może załoga nie potrafiła go obsługiwać, być może silniki zawiodły i być może była brzoza. Wersję o dominującym znaczeniu czynnika ludzkiego można weryfikować poprzez zapisy czarnych skrzynek - chociaż ciągle mnie dziwiło, że pojawiają się kolejne dopowiedziane wersje (jak nie pasuje poprzednia wersja, a to proszę - właśnie zidentyfikowaliśmy następną wersję rozmów w kabinie pilotów), co w tym skrzynkach się znajduje... To tak jak z owym dziełem o wojnie ojczyźnianej marszałka ZSRS Żukowa - po jego śmierci, kiedy było wznawiane, za każdym razem pojawiało się w książce coś nowego, a coś ginęło, zupełnie jakby marszałek żył i ciągle dokonywał korekty swojego dzieła, zgodnie z potrzebami chwili - gloryfikowano aktualnego pierwszego sekretarza, a krytykowano poprzednich. Człowiek jest człowiekiem, jego zachowania mogą być różne w różnych sytuacjach, ale prawa fizyki i matematyki są niewzruszone. Jeżeli coś udaje się sprowadzić do zachowania się obiektu pod wpływem praw fizycznych i opisującej te prawa matematyki, to jest to esencja prawdy. Pozostaje tylko ów margines wątpliwości, gdyż urządzenia, którymi badamy rzeczywistość, mają skończoną dokładność. Ale zwykle dochodzi się do sytuacji, gdy ów margines wątpliwości jest tak mały, że możemy sobie na niego pozwolić.

Działaniem jakich praw fizyki wytłumaczyłby Pan sposób rozpadu samolotu na drobne kawałki?

- Może gwałtowny wzrost ciśnienia wewnątrz samolotu? I to nie wzrost jednorodny, ale jakby w pojedynczych - może paru miejscach? Powstała w ten sposób fala uderzeniowa w powietrzu wewnątrz samolotu, która w milisekundach rozczłonkowała samolot? Czy na materiale wewnątrz samolotu można znaleźć ślady, które pozwalają na przyjęcie lub odrzucenie hipotezy, że wokół nich przez bardzo krótki czas przebiegła taka fala uderzeniowa? To jest seria moich pytań, a nie odpowiedzi na te pytania. Nie znam własności gruntu, na który spadł samolot. Nie wiem, jaka była nośność gruntu na terenie katastrofy. To jest rzecz, która podlega weryfikacji eksperymentalnej. Kiedy zna się już parametry gruntu, można określić symulacyjnie, jaka wielkość przyspieszenia (raczej opóźnienia) była do osiągnięcia, kiedy obiekt mający taką, a nie inną prędkość początkową jest hamowany przez coś, co ma taką a taką wielkość, np. modulu Younga i innych parametrów materiałowych. Takie obliczenia można wykonać na kartce papieru, z dokładnością 10-20 procent. Jeśli natomiast ktoś chce to zrobić z dokładnością co do promila, wymaga to użycia maszyn cyfrowych. To wszystko jest dziś w zasięgu przeciętnie wyposażonej politechniki.

Profesor Jacek Rońda z Wydziału Inżynierii Metali i Informatyki Przemysłowej AGH stwierdził w rozmowie z "Naszym Dziennikiem", że ów grunt nie działa jak katapulta, nie powoduje fragmentacji konstrukcji na drobne kawałki.

- Zgadzam się z jego spostrzeżeniami i wątpliwościami.

Według raportów MAK i komisji Millera, na pasażerów działały olbrzymie przeciążenia - 100 g.

- To jest właśnie rzecz, która jest do wysymulowania. To, że następuje uszkodzenie ciała, jest konsekwencją tego, jaka jest wielkość przyspieszenia, któremu ciało jest poddane, oraz długości czasu, podczas którego to przyspieszenie działa. Ciała pasażerów uległy uszkodzeniom wielonarządowym, to jest konsystentne, wskazuje na zadziałanie przyspieszeń rzędu 100 g (1 g = przyspieszenie ziemskie). Pasażerowie znajdowali się w różnych częściach samolotu - przepraszam za makabryczne sformułowanie, ale ich ciała są w ten sposób detektorami zjawiska. Skoro ich ciała doznały podobnych przyspieszeń, to poszukujemy jednolicie działającego w całym samolocie zjawiska - siły hamującej. To, że prędkość pionowa samolotu przed katastrofą była niewielka, nie rozstrzyga o tym, że osiągnięcie przyspieszeń rzędu 100 g jest niemożliwe.

Wspomniał Pan, że koszty symulacji rozpadu konstrukcji tupolewa byłyby dość wysokie. Pana kolega po fachu prof. Edward Malec powiedział mi, że państwo polskie powinno znaleźć środki na zbadanie tej katastrofy.

- Tego bym oczekiwał. Ale widzę, że państwo polskie wyraźnie się od tego uchyla. Państwo nie wyraża tym właściwego zainteresowania, a spora część obywateli jest tym zainteresowana, np. moje dorosłe dzieci też. Przyznam, że jestem tym dotknięty. Chyba więcej jest zainteresowanych katastrofą smoleńską niż piłkarskim Euro 2012. To można było zrobić już na samym początku, tuż po katastrofie, zaczynając od zabezpieczenia materialnych pozostałości katastrofy. To byłby wyraz tego, że sprawę traktuje się poważnie. Zaniedbano zebranie wszystkich elementów w jedno miejsce - wrażenie jest takie, że najwyraźniej ktoś nie chce, by elementy tupolewa ocalałe z katastrofy mogły być wykorzystane do weryfikacji kolejnych hipotez, kolejnych etapów symulacyjnych. Symulacji nie robi się w kilkanaście minut. To proces ciągły, czasochłonny. To jest ciężka praca. Nikt na początku nie wie, jaki będzie efekt końcowy, do którego dochodzi się przy zastosowaniu zebranych danych, zjawisk fizycznych i maszyn cyfrowych. Tych, których zainteresował mój tekst, odsyłam np. do cyklu prezentowanego od lat przez kanał Discovery dotyczący katastrof lotniczych, np. katastrofy nad Lockerbie z 1989 roku. W internecie przedstawiona jest żmudna praca komisja lotniczej (uwieńczona sukcesem) wyjaśniającej przyczyny tej katastrofy.

Czy jednak można wysnuwać stuprocentowe wnioski o spodziewanych uszkodzeniach samolotu, skoro nie ma dwóch identycznych katastrof? Ciężko zastosować więc powtarzalne schematy.

- To dlatego badanie katastrof jest kosztowne. I może się okazać, że odpowiedź jest następująca - margines błędu jest tak wielki, że ustalenie przyczyn, przebiegu jest niemożliwe. Nawet w prawie jest następujące sformułowanie dotyczące prawa spadkowego - gdy jest katastrofa, to zakłada się, że wszystkie osoby uczestniczące w niej zginęły jednocześnie. Proszę zauważyć, że gdyby nie zginęły jednocześnie, to ścieżka dziedziczenia spadku mogłaby być inna. Priorytetem jest coś innego - czy sprawa katastrofy smoleńskiej jest dla państwa polskiego na tyle istotna, że zechce zaryzykować np. wydatek 50 mln zł, aby była szansa (nie pewność) uzyskania odpowiedzi na pytanie, co się stało, jaki był przebieg katastrofy?

Dlaczego Pana zdaniem eksperci komisji Millera nie chcą podjąć merytorycznej dyskusji z prof. Biniendą? Przecież podobno badali wrak, mieli dostęp do czarnych skrzynek, oglądali miejsce katastrofy etc.

- Tego kompletnie nie rozumiem. W nauce niekoniecznie ma rację ten, kto jest w liczniejszej grupie. Tu decyduje beznamiętne podejście do problemu, przedstawianie argumentów, dyskusja. Najbardziej cenne jest, gdy w dyskusji ktoś uznaje słuszność argumentów innych osób, mimo że początkowo ze zdaniem tych innych osób się nie zgadzał. Są różnice zdań, z tych różnych zdań prawdopodobnie tylko jedno jest prawdziwe. Każdy może się pomylić. W swoje stanowisko wierzę tym bardziej, im więcej osób udało mi się przekonać do swojej racji.

Dziękuję za rozmowę.


Prof. Zbigniew Rudy zajmuje się fizyką jądrową. Tytuł profesora otrzymał w 2010 roku. Prowadzi zajęcia dydaktyczne z fizyki i informatyki na Wydziale Fizyki, Astronomii i Informatyki Stosowanej UJ.


--


"Główną motywacją mojej aktywności publicznej była potrzeba władzy
i żądza popularności. Ta druga była nawet silniejsza od pierwszej,
bo chyba jestem bardziej próżny, niż spragniony władzy. Nawet na pewno..."

- Donald Tusk: Gazeta Wyborcza, 15–16 października 2005

Prof. Zbigniew Rudy nie wierzy w pancernÄ… brzozÄ™

Nowy film z video.banzaj.pl wiêcej »
Redmi 9A - recenzja bud¿etowego smartfona