Hiperprzestrzeń
Elegancja teorii fizycznych lub obrazujących je równań matematycznych, to przede wszystkim zwięzłe, oszczędne ale jednocześnie pełne i ścisłe zdefiniowanie jak największego zakresu zjawisk fizycznych. W życiu codziennym podobne wymagania mamy w stosunku do gier: dobra gra powinna posiadać proste ale ścisłe reguły i jednocześnie charakteryzować się dużą ilością wariantów (jak np. w szachach: 10134!). W sferze społecznej można to odnieść do określenia zasad ustrojowych i porządku prawnego w państwie: w miarę krótka i prosta konstytucja oraz ewentualny, zredukowany do całkowicie niezbędnego minimum, zbiór ustaw (niezbyt to pasuje do UE!).
Hiperprzestrzeń - elegancja w wyższych wymiarach Jan K. Nowakowski |
|
"Cechą wielkich umysłów jest wyrazić wiele w kilku słowach,
tak jak cechą umysłów miernych jest w wielu słowach nie powiedzieć nic"
La Rochefoucauld
Ideałem byłoby tutaj zawarcie samej istoty materii i energii oraz czasu i przestrzeni w jednym równaniu, z którego można by wyprowadzić wszystkie inne prawa fizyki czy też np. określić charakterystyki cząstek elementarnych, wartości stałych uniwersalnych itp.
Od dziesiątków już lat prace gigantów fizyki, zmierzające do odkrycia takiej Uniwersalnej Teorii Świata, skupiają się na unifikacji czterech fundamentalnych sił przyrody, na pierwszy rzut oka wydających się zupełnie odmiennymi: oddziaływań elektromagnetycznych, silnych i słabych oddziaływań jądrowych oraz oddziaływań grawitacyjnych. Bez stworzenia Jednolitej Teorii Pola, teorii, która wyjaśni naturę i pochodzenie wszystkich znanych sił przyrody nie można mówić o zrozumieniu podstawowej natury materii.
Prawo grawitacji Newtona
edytujGdy w II poł. XVII w. sir Isaac Newton sformułował prawo powszechnego ciążenia oraz zasady mechaniki, wydawało się, że są to już absolutnie doskonałe, uniwersalne teorie. Ogłoszone w 1687 roku przez Towarzystwo Królewskie w Londynie "Philosophiae naturalis principia mathematica" Newtona to bez wątpienia dzieło o najdonioślejszym w historii ludzkiej myśli znaczeniu dla rozwoju nauk przyrodniczych.
Przez sformułowanie jednolitej teorii ruchów ciał na Ziemi oraz planet, komet i innych ciał niebieskich, zasady jedności materii i powszechności praw fizyki znalazły swoje ścisłe potwierdzenie.
gdzie: G - stała grawitacyjna: Wzór ten jest dla nas oczywisty: siła jest |
Równanie obrazujące prawo grawitacji jest jasne i proste. Można by powiedzieć, że jest matematycznie piękne. Posiada tylko, tak samo jak teoria, którą ono opisuje, jeden "drobny" defekt: nie jest uwzględniony w nim czas. Oznacza to, że milcząco zakładamy, iż oddziaływania grawitacyjne są natychmiastowe, tzn. rozchodzą się z nieskończenie wielką szybkością. Poza tym działanie na odległość jest nienaturalne, ponieważ oznacza to, że jedno ciało może zmienić kierunek ruchu drugiego nawet go nie dotykając.
Równanie grawitacji jest jasne i proste, ale nie oznacza to wcale, że nie ma problemów z rozwiązywaniem zagadnień z tego zakresu. Dotychczas nie udało się znaleźć ogólnego wzoru pozwalającego na obliczenie ruchu trzech ciał wzajemnie oddziaływujących grawitacyjnie (nie mówiąc o większej liczbie obiektów). Trochę więcej o tym, a także demonstrację ruchu obiektów w polu grawitacyjnym, można znaleźć w części dotyczącej DHTML.
W XVIII wieku podobny matematyczny zapis sił działających pomiędzy ładunkami elektrycznymi oraz magnetycznymi (traktowano wtedy te oddziaływania jako całkowicie niezależne od siebie) wprowadził Charles Coulomb.
Teoria Riemanna
edytujZ tą zasadą "natychmiastowego działania na odległość" po raz pierwszy, prawie po dwustu latach, zerwał Georg Bernhard Riemann. Pod namową "księcia matematyków" Carla Friedricha Gaussa, u którego studiował, opracował on teorię wyższych wymiarów. Przedstawił ją 10 czerwca 1854 roku podczas swego wykładu habilitacyjnego na Uniwersytecie w Getyndze.
Gdyby teraz były rozprawy habilitacyjne takiego formatu, Uniwersalna Teoria byłaby chyba już opracowana.
Teoria Riemanna zerwała z podstawami klasycznej geometrii Euklidesa, traktowanymi przez ponad dwa tysiąclecia jak dogmaty. Zawierała ona pełny matematyczny formalizm pozwalający na opis przestrzeni o dowolnej liczbie wymiarów, w tym także przestrzeni o dowolnej krzywiźnie, wykorzystujący tzw. tensor metryczny oraz tensor krzywizny [1].
Właśnie to zakrzywienie w czwartym niewidzialnym wymiarze naszej trójwymiarowej przestrzeni było wg Riemanna odpowiedzialne za działanie sił grawitacji, elektryczności i magnetyzmu. Obrazowo mówiąc, wędrując w naszej trójwymiarowej przestrzeni, która byłaby "pofałdowana" w czwartym wymiarze, odczuwalibyśmy działanie niewidzialnej "siły" spychającej nas na boki.
Równania Maxwella
edytujProwadzone w XVIII w. i I poł. XIX w. przez wielu znakomitych fizyków (należałoby tu szczególnie podkreślić wkład Michaela Faradaya) badania nad elektrycznością i magnetyzmem doprowadziły do stworzenia matematycznej teorii zjawisk elektromagnetycznych.
Ogłoszenie w 1873 roku wielkiego dzieła Jamesa Clerka Maxwella "Treatise on Electricity and Magnetism" to, podobnie jak w końcu XVII w. mechanika Newtona, kolejny przewrót w strukturze fizyki. Z równań Maxwella, zwanych dziś równaniami elektrodynamiki klasycznej, wynikało istnienie nowego, nie znanego wówczas zjawiska fal elektromagnetycznych, obejmującego również światło. W ramach jednej teorii połączone zostały trzy wielkie klasy zjawisk (elektryczne, magnetyczne i optyczne), przez długi okres czasu uważane za niezależne. Równania Maxwella to matematyczny opis pola elektromagnetycznego.
Pojęcie pola zostało wprowadzone przez wspomnianego wyżej Michaela Faradaya. Można powiedzieć, że pole jest zdefiniowanym w każdym punkcie przestrzeni zbiorem liczb, które całkowicie opisują siłę w danym miejscu.
Dla pola elektromagnetycznego w przestrzeni trójwymiarowej będzie to sześć liczb dla każdego punktu: trzy liczby określają natężenie i kierunek magnetycznych linii sił (typowo są to trzy składowe wektora natężenia) a kolejne trzy liczby definiują pole elektryczne.
Zestaw równań Maxwella nie jest już zbyt elegancki, gdyż każde z nich opisuje inną właściwość tego samego pola i jest ich po prostu zbyt dużo, bo w zasadzie aż osiem: dwa z czterech równań to równania wektorowe (rotacja pola wektorowego, w przestrzeni o liczbie wymiarów większej niż dwa, jest wektorem) i każde z tych dwóch zawiera właściwie trzy równania.
Maxwell użył w swej teorii pojęcia eteru - hipotetycznego ośrodka wypełniającego przestrzeń, w którym miałyby rozchodzić się fale elektromagnetyczne (światło).
Szczególna teoria względności
edytujGdy Albert Einstein, korzystając z nadmiaru wolnego czasu w czasie pracy w urzędzie patentowym w Bernie, uważnie przeanalizował równania Maxwella, sformułował w 1905 r. podstawę szczególnej teorii względności: prędkość światła jest taka sama we wszystkich poruszających się układach. Doprowadziło to do przyjęcia czasu jako czwartego wymiaru, a w konsekwencji do unifikacji wszystkich wielkości fizycznych mierzonych w przestrzeni i czasie, takich jak materia i energia. Znalazł w ten sposób precyzyjne matematyczne wyrażenie na jedność materii i energii: , będące chyba najsłynniejszym równaniem fizyki.
Opracowanie spójnej szczególnej teorii względności było możliwe dzięki przyjęciu przez Einsteina koncepcji czterowymiarowej czasoprzestrzeni. Zwykła trójwymiarowa przestrzeń byłaby na to "zbyt ciasna". Wyższe wymiary upraszczają zagadnienie.
Jest to podobny problem, jak w kartografii: nie można wiernie przedstawić powierzchni Ziemi na jednej mapie (dwuwymiarowej). Trzeba użyć kilku, a i tak będą to tylko przybliżenia (chociaż w praktyce wystarczające).
Dobrym przykładem może być tutaj relatywistyczna wersja równań Maxwella. Jeśli potraktujemy czas jako czwarty wymiar, po wprowadzeniu tensora Maxwella , zestaw równań pola elektromagnetycznego można zapisać jednym równaniem:
Szczególna teoria względności opisuje tylko zjawiska zachodzące w inercjalnych układach odniesienia (podmiot i przedmiot obserwacji znajdują się w jednostajnym ruchu względnym).
Ogólna teoria względności
edytujgdzie:
- tensor pola Einsteina
- tensor energii-pędu
, G - stała grawitacji Newtona
Więcej
Następne lata upływają Einsteinowi na poszukiwaniu teorii grawitacji (czyli dotyczącej nieinercjalnych układów, w których na ciała działają siły grawitacyjne) zgodnej ze szczególną teorią względności. Formułuje podstawową zasadę: obecność materii określa zakrzywienie czasoprzestrzeni, która ją otacza. Brakuje mu jednak odpowiedniego aparatu matematycznego, który pozwoliłby na opracowanie pełnego formalizmu teorii.
Dopiero w 1915 r., gdy jego przyjaciel, matematyk Marcel Grossman, natknął się w bibliotece na prace Riemanna sprzed sześćdziesięciu lat, okazało się, że jest to dokładnie to, o co chodziło. Prawie cały słynny wykład Riemanna z 1854 r. znalazł swoje odbicie w teorii Einsteina, a sam tensor metryczny okazał się zapisem pola grawitacji. Można powiedzieć, że cały matematyczny opis teorii pola grawitacyjnego (zakrzywienia czasoprzestrzeni) stworzył Riemann. Zabrakło tu jednak fizycznej interpretacji równań, a przede wszystkim idei, że to materio-energia określa zakrzywienie przestrzeni.
Będące kwintesencją ogólnej teorii względności równania pola Einsteina określają geometrię czterowymiarowej czasoprzestrzeni (czyli opisują pole grawitacyjne) w zależności od rozkładu energii (masy) i pędu.
Równania te wyrażone za pomocą tensora metrycznego Riemanna są wyjątkowo eleganckie. Noblista Subrahmanyan Chandrasekhar nazwał to odkrycie "najpiękniejszą teorią, jaka kiedykolwiek istniała".
Czwarty wymiar
edytujWróćmy tu jeszcze do prac Riemanna. Po pierwszych latach fascynacji teorią wielowymiarowych przestrzeni, w późniejszym okresie, aż do 1905 roku, stała się ona domeną tylko czystej matematyki. Nikt w tym okresie nie próbował wykorzystać jej zgodnie z ideą, którą kierował się Riemann: użycie zakrzywionej hiperprzestrzeni do wyjaśnienia natury "sił przyrody". Koncepcje wyższych wymiarów miały w historii zawsze swoich przeciwników. Ich argumenty najczęściej sprowadzały się do stwierdzenia, że "czwarty wymiar nie istnieje, ponieważ nie można go sobie wyobrazić". Niektórzy udowadniali trójwymiarowość przestrzeni na podstawie przesłanek fizycznych: gdyby przestrzeń była czterowymiarowa, to oddziaływania (np. światło, grawitacja) malałyby wraz z sześcianem odległości. Takiego argumentu użył m.in. w 1917 r. fizyk Paul Ehrenfest, nota bene przyjaciel Einsteina, w artykule "W jaki sposób w fundamentalnych prawach fizyki przejawia się trójwymiarowość przestrzeni?".
Argument ten można zakwestionować przynajmniej w niektórych wypadkach: dla przestrzeni silnie zakrzywionych w którymś z wymiarów.
Wyobraźmy sobie w płaskim dwuwymiarowym świecie punktowy ładunek wytwarzający typowe pole (np. elektryczne). Natężenie pola będzie malało proporcjonalnie do odległości od ładunku: "powierzchnią" otaczającą ładunek będzie w tym wypadku obwód okręgu rosnący proporcjonalnie do odległości. Jeśli nasza "dwuwymiarowa przestrzeń" ulegnie w jednym z wymiarów całkowitemu zakrzywieniu, otrzymamy coś w rodzaju "rulonu". Linie sił pola będą tutaj obiegać "wszechświat" i natężenie pola tylko początkowo będzie malało w przybliżeniu proporcjonalnie do odległości. W odległościach kilkakrotnie większych, niż promień zakrzywienia "świata", natężenie będzie praktycznie stałe (tak jak w przestrzeni jednowymiarowej), gdyż ciągle taki sam strumień pola będzie przechodzić przez niezmieniający się "obwód świata".
Podobna sytuacja byłaby w czterowymiarowym świecie, gdyby jeden z wymiarów uległ "zwinięciu": pole rozchodziłoby się tak, jak w zwykłej trójwymiarowej przestrzeni.
Teoria Kaluzy-Kleina
edytujPo sukcesach szczególnej i ogólnej teorii względności, Einstein podejmuje znowu próbę stworzenia kolejnej wielkiej teorii - zunifikowanej teorii pola. Na bezskutecznych poszukiwaniach tej "teorii wszystkiego", która wyjaśni naturę wszystkich znanych sił przyrody, włącznie ze światłem i grawitacją, Einsteinowi upływa ostatnie 30 lat życia.
Gdy Einstein rozpoczynał te prace, zagadnienie dotyczyło tylko dwóch znanych wówczas sił: elektromagnetycznych (tzn. praktycznie siły Coulomba) i grawitacyjnych. Obydwie siły są oddziaływaniami dalekiego zasięgu, typu 1/R2. Mała wartość stałej powszechnego ciążenia powoduje, że oddziaływania grawitacyjne są znikomo małe w porównaniu z siłami Coulomba. Siła przyciągającego oddziaływania elektrycznego między protonem i elektronem jest ok. 1039 razy większa od oddziaływania grawitacyjnego między nimi. Podnosząc ze stołu skrawki papieru naelektryzowanym grzebieniem widzimy, że pole elektryczne wytworzone przez ten maleńki przedmiot jest silniejsze od pola grawitacyjnego całej Ziemi.
Oddziaływania grawitacyjne są tak słabe, że można by pomyśleć, że są to tylko szczątkowe, wypadkowe siły elektryczne, wynikające z nierównomiernego rozmieszczenia ładunków elektrycznych w ciałach materialnych. Przykładowo, neutron jest cząstką elektrycznie obojętną i między dwoma neutronami nie powinno występować oddziaływanie elektryczne. Wg obecnych teorii cząstka ta składa się z trzech kwarków o ładunkach elektrycznych (w jednostkach elementarnego ładunku): +2/3, -1/3, -1/3. Gdy przyjmiemy układ dwóch neutronów tak, jak na rysunku, to wypadkowa siła oddziaływania elektrycznego, wynikająca z różnic w odległościach między kwarkami, będzie przyciągająca.
Taki układ można sobie narysować dla kilku cząstek, ale co zrobić ze wszystkimi we Wszechświecie?
Poza rzędem wielkości obydwu sił, podstawowa różnica między tymi oddziaływaniami to fakt, że siła ciężkości jest zawsze przyciągająca a siły elektryczne mogą być i przyciągające i odpychające. "Jednokierunkowość" sił (jak w grawitacji) jest podstawową cechą równań ogólnej teorii względności, co znacznie utrudnia "wmontowanie" do nich sił elektromagnetycznych.
W 1919 r. Einstein został zaskoczony listem otrzymanym od nieznanego mu matematyka Theodora Kaluzy z Königsbergu (Królewiec, Kaliningrad). Ów matematyk, ni mniej ni więcej, tylko zaproponował rozwiązanie problemu zjednoczenia teorii grawitacji Einsteina z teorią światła Maxwella. Kaluza dodał jeden wymiar przestrzenny do czterowymiarowej czasoprzestrzeni Einsteina i założył, podobnie jak kiedyś Riemann, że światło jest zaburzeniem spowodowanym przez "pofałdowanie" tego wyższego wymiaru. Zapisał najpierw równania pola Einsteina dla grawitacji w tych pięciu wymiarach (tensor metryczny Riemanna można zapisać dla dowolnej liczby wymiarów). Wykazywał następnie, że te pięciowymiarowe równania zawierają w sobie czterowymiarową teorię Einsteina (czego należało oczekiwać) wraz z pewnym dodatkiem. Dodatkiem tym była dokładnie teoria światła Maxwella. Pomysł ten można zobrazować tensorem metrycznym w tej pięciowymiarowej czasoprzestrzeni:
Blok gij jest starą czterowymiarową metryką Einsteina, gdzie w każdym punkcie przestrzeni jest zdefiniowany zbiór dziesięciu liczb (gij = gji). Piąty wiersz i piątą kolumnę identyfikuje się z polem Maxwella, dla którego w każdym punkcie przestrzeni jest zdefiniowany zbiór czterech liczb: składowe 4-potencjału pola elektromagnetycznego (jeden nie zaznaczony składnik to cząstka skalarna, nie mająca tutaj znaczenia).
Teoria ta z punktu widzenia formalizmu matematycznego jest całkowicie spójna i logiczna. Posiada jednak poważny mankament: brak jest dowodu, że piąty wymiar rzeczywiście istnieje. Kaluza założył tutaj, że wymiar ten jest zwinięty do tak małych rozmiarów, iż nie możemy go zaobserwować. W 1926 r. matematyk Oskar Klein pracując nad udoskonaleniem tej teorii, obliczył - przyjmując, że wyjaśnienie powodu zwinięcia piątego wymiaru leży w teorii kwantowej - rozmiar tego wymiaru na 10-33 centymetra, co jest wielkością zbyt małą aby jakikolwiek przeprowadzony na Ziemi eksperyment mógł go wykryć.
Model standardowy
edytujPowyższa teoria, zwana tradycyjnie teorią Kaluzy-Kleina, już w latach trzydziestych została praktycznie zaniechana. Poza brakiem możliwości udowodnienia istnienia piątego wymiaru, powodem było pojawienie się nowej teorii, która zrewolucjonizowała świat fizyki. Teorią tą była mechanika kwantowa [2]. W przeciwieństwie do gładkiej, geometrycznej interpretacji pola sił, stworzonej przez Einsteina, w teorii tej wszystkie siły powstają dzięki wymianie dyskretnych porcji energii, zwanych kwantami.
Budząca kontrowersje, leżąca u podstaw mechaniki kwantowej, zasada nieoznaczoności Heisenberga powoduje, że to już nie jest w pełni zdeterminowany newtonowski świat, gdzie można było przewidzieć ruchy wszystkich cząstek, lecz świat prawdopodobieństw i przypadków. Do tego indeterministycznego podejścia nie przekonał się nigdy Einstein. Znany jest jego spór na ten temat z Nielsem Bohrem, a także jego powiedzenie: "Bóg nie gra w kości z Wszechświatem". Mechanika kwantowa pozwoliła wkroczyć w świat atomów i ich składników. Umożliwiła bardzo dokładny opis zjawisk rządzących światem mikrocząstek. Liczba tych najmniejszych obiektów, odkrytych w ciągu kilkudziesięciu lat, wzrosła do ponad stu, ale są to głównie cząstki wirtualne istniejące bardzo krótko - rzędu 10-10 sekundy i krócej. Odkryto dwa nowe oddziaływania rządzące właśnie w świecie mikrocząstek: słabe i silne oddziaływania jądrowe. Dzięki odkryciu pola Yanga-Millsa udało się stworzyć spójną teorię obejmującą oddziaływania elektromagnetyczne oraz obydwa oddziaływania jądrowe, tak bardzo zgodną z danymi doświadczalnymi, że nazywa się ją modelem standardowym.
Mimo zgodności modelu standardowego ze wszystkimi znanymi danymi eksperymentalnymi, nie jest on ostateczną teorią materii. Poza tym, że nie obejmuje on grawitacji, jest nie tylko, że nieelegancki, ale sztuczny i wręcz brzydki. Jego twórcy czują się chyba nawet z tego powodu trochę zawstydzeni. Wystarczy tu powiedzieć, że w modelu tym występuje:
- trzydzieści sześć odmian kwarków
- sześć rodzajów leptonów
- osiem pól Yanga-Millsa do opisu sił gluonowych (pomiędzy kwarkami)
- cztery pola Yanga-Millsa do opisu oddziaływania słabego (leptony) i elektromagnetycznego
- przynajmniej 19 dodanych sztucznie (nie wynikających z teorii) parametrów, służących do opisu mas cząstek oraz sił.
Można sobie wyobrazić, jak fizycy pracowicie spędzają dziesiątki lat na manipulowaniu wartościami wszystkich tych 19 parametrów, w celu ich optymalnego "dostrojenia". Kojarzy mi się to z dziedziną bardzo od fizyki odległą: polityką. Poszczególne ugrupowania przelicytowują się pomysłami na korygowanie w różnych kierunkach dziesiątków, dotyczących oczywiście głównie pieniędzy, wskaźników (stawek podatków, obowiązkowych ubezpieczeń, ulg, dotacji, koncesji itd.). Może to być niekończący się proces, bo żadne (powiedzmy: prawie żadne) z tych ugrupowań nie ma wizji zerwania z tym "brzydkim" modelem ręcznego sterowania i stworzenia "eleganckiego", samoregulującego się modelu, o prostych i jasnych regułach i ograniczonej do całkowicie niezbędnego minimum liczbie takich swobodnych parametrów.
Należałoby poza tym dodać, że istnieje możliwość, iż zostaną odkryte kolejne rodziny kwarków i leptonów.
Teoria supergrawitacji
edytujPo kilku dziesiątkach lat sukcesów mechaniki kwantowej i modelu standardowego, już z końcem lat sześćdziesiątych nadzieje na rozwiązanie tą drogą problemu Wielkiej Unifikacji i Teorii Wszystkiego zaczęły przygasać. Przypomniano sobie wtedy o starej teorii Kaluzy-Kleina i zaczęto wracać do idei wyższych wymiarów.
Od czasów opracowania tej teorii fizyka wzbogaciła się o znajomość świata mikrocząstek z jego symetriami i polem Yanga-Millsa. Ale, gdy pół wieku wcześniej przed fizykami stało zadanie zjednoczenia tylko dwóch oddziaływań: grawitacji i elektromagnetyzmu, teraz doszły silne i słabe oddziaływania jądrowe. Było jasne, że trzeba tu będzie więcej, niż pięciu wymiarów. Z tych prób wykorzystania idei Kaluzy-Kleina wyłoniła się teoria supergrawitacji, przedstawiona w 1976 r. przez trzech fizyków z Uniwersytetu w Stony Brook: Daniela Freedmana, Sergio Ferrarę i Petera van Nieuwenhuizena. Teoria ta już po dalszych udoskonaleniach, opierała się na jedenastowymiarowej czasoprzestrzeni. Sformułowanie superteorii Kaluzy-Kleina w 11 wymiarach wymagało znacznego zwiększenia ilości składników w tensorze Riemanna, który w ten sposób stał się supertensorem Riemanna. Łączył on teraz w sobie zarówno oddziaływania (grawitacyjne, elektromagnetyczne, jądrowe) jak i materię:
Ta superunifikacja wszystkich sił i cząstek Wszechświata wywołała ogromny oddźwięk w świecie fizyki. Jeden z jej twórców, Peter van Nieuwehuizen, napisał, że supergrawitacja "może zjednoczyć wielkie zunifikowane teorie (...) z grawitacją, tworząc model który niemal nie ma swobodnych parametrów. Jest to unikalna teoria (...) tak piękna, że Natura powinna być jej świadoma". Stephen Hawking, gdy w kwietniu 1980 r. obejmował w Cambridge profesurę Lucasa (stanowisko to niegdyś zajmował Isaac Newton), wygłosił wykład pod optymistycznym tytułem "Czy widać już koniec fizyki teoretycznej?".
Teoria superstrun
edytujW latach osiemdziesiątych zaczęto jednak dostrzegać problemy związane z supergrawitacją. W żadnym z eksperymentów nie wykryto tzw. s-cząstek, których istnienie przewidywała teoria. Stało się też jasne, że teorii tej nie da się poprawnie skwantować (teoria nie poddaje się renormalizacji, czyli nie można pozbyć się nieskończoności powstających przy uwzględnianiu poprawek kwantowych). Te i inne problemy sprawiły, że zainteresowanie fizyków zaczęło się kierować w stronę innej teorii: chyba najdziwniejszej, ale i najpotężniejszej, jaka kiedykolwiek została zaproponowana.
Ta nowa teoria to teoria superstrun. Jej historia zaczęła się jeszcze w 1968 r., gdy młodzi fizycy z CERN-u w Genewie, Gabriel Veneziano i Mahiko Suzuki, poszukując funkcji matematycznych, które mogłyby opisać zachowanie silnie oddziaływujących cząstek, natknęli się niezależnie od siebie na funkcję beta, stworzoną w XIX w. przez Leonharda Eulera. Zaskoczyło ich, że funkcja ta ma prawie wszystkie własności niezbędne do opisania oddziaływania silnego cząstek elementarnych. W 1970 r. Yoichiro Nambu z Uniwersytetu w Chicago i Tetsuo Goto z Uniwersytetu w Nihon wykazali, że za cudownymi własnościami funkcji beta kryje się drgająca struna. Po kilku latach intensywnych prac nad modelem Veneziano-Suzuki'ego, w 1974 r. badania uległy gwałtownemu zahamowaniu. Okazało się, że teoria ta jest spójna tylko w dziesięciu oraz w dwudziestu sześciu wymiarach, a prawie nikt nie wierzył by teoria zdefiniowana w takiej hiperprzestrzeni miała coś wspólnego z rzeczywistością.
Przez całe dziesięciolecie, od 1974 do 1984 r., teoria pozostawała w zapomnieniu. Był to okres powrotu do teorii Kaluzy-Kleina oraz popularności modelu supergrawitacji.
Gdy, zarówno teoria Kaluzy-Kleina jak i supergrawitacja doznały licznych niepowodzeń, a jednocześnie oswojono się z ideą hiperprzestrzeni, opór przeciwko teorii superstrun zaczął topnieć. W końcu w 1984 r. udowodniono (John Schwarz z California Institute of Technology i Michael Green z Queen Mary's College w Londynie), że teoria ta jest jedyną spójną teorią kwantowej grawitacji, a w następnym roku Edward Witten z Institute for Advanced Study w Princeton dokonał zasadniczych postępów w tym modelu, nazwanym teorią pola Wittena. Duży wkład w rozwój tej teorii wniósł "kwartet strunowy z Princeton": David Gross, Emil Martinec, Jeffrey Harvey i Ryan Rohm (wymyślili tzw. strunę heterozyjną - zamkniętą, wibrującą w dwóch kierunkach) oraz Michio Kaku z Uniwersytetu w Nowym Jorku (teoria pola strun).
Michio Kaku
W teorii superstrun cząstki elementarne są utożsamiane z rezonansami miniaturowych (miliardy razy mniejszych od protonu) strun, które zachodzą przy określonych częstościach drgań. Każdy rodzaj rezonansu odpowiada innej cząstce, stąd też takie bogactwo cząstek elementarnych. Teoria strun wyjaśnia nie tylko naturę cząstek, ale także czasoprzestrzeni. Poruszając się w czasoprzestrzeni struna może rozpadać się na mniejsze struny, albo zderzać się z innymi, tworząc dłuższe struny. Przy założeniu, że struna musi poruszać się spójnie w czasoprzestrzeni, z równań struny można wyprowadzić równania Einsteina! Kwant grawitacji (grawiton) to tutaj najmniejsze drganie zamkniętej struny. Jeśli nie wyrazimy teorii grawitacji Einsteina jako jednego z drgań struny, teoria superstrun staje się niespójna. Te ograniczenia na spójność są bardzo sztywne. Pozwalają one na poruszanie się struny tylko w przestrzeniach o magicznych liczbach wymiarów: dziesięć lub dwadzieścia sześć. W takich przestrzeniach jest już na szczęście wystarczająco dużo "miejsca", by zjednoczyć wszystkie podstawowe siły i wychodząc od prostej teorii wibrującej struny można otrzymać teorię Einsteina, Kaluzy-Kleina, model standardowy i teorię GUT. Edward Witten stwierdził nawet, że "wszystkie naprawdę wielkie idee w fizyce" są odgałęzieniami teorii superstrun, a odkrycie ogólnej teorii względności przed teorią superstrun "było zwykłym przypadkiem w historii Ziemi". Teoria superstrun mieści w sobie wszystkie symetrie modelu standardowego, a nawet teorii GUT, a poza tym jest to pierwsza w historii fizyki kwantowa teoria grawitacji renormalizowalna (mająca skończone poprawki kwantowe). Tego kryterium nie spełniały wszystkie znane wcześniej teorie, włącznie z oryginalną teorią Einsteina, teorią Kaluzy-Kleina i supergrawitacją.
W teorii tej zakłada się, że dodatkowych sześć, niewidzialnych dla nas, wymiarów jest zwiniętych do rozmiarów rzędu długości Plancka. Zgodnie z modelem Gorącego Wielkiego Wybuchu, opracowanym jeszcze w 1948 r. przez George'a Gamowa i jego studenta Ralpha Alphera, można przyjąć, że w chwili narodzin Wszechświata, przy fantastycznej temperaturze 1032 kelwinów, był on pięknym dziesięciowymiarowym tworem, w którym zjednoczone były wszystkie oddziaływania i istniała jedna wielka symetria GUT. Świat ten był jednak niestabilny i po 10-43 sekundy rozpadł się na cztero- i sześciowymiarowy. Sześciowymiarowy zapadł się do rozmiaru 10-32 centymetra, a nasz czterowymiarowy zaczął się gwałtownie rozszerzać. Po 10-35 sekundy silne oddziaływania oddzieliły się od elektrosłabych, a niewielki fragment większego wszechświata rozszerzył się 1050 razy, stając się ostatecznie naszym widzialnym Wszechświatem. Po upływie dalszego ułamka sekundy, oddziaływania elektrosłabe rozpadły się na elektromagnetyczne i słabe, a następnie, gdy temperatura spadła już do 1014 kelwinów, kwarki zaczęły się łączyć w protony i neutrony...
Z końcem lat osiemdziesiątych wydawało się, że w krótkim czasie uda się nadać teorii ostateczny kształt. Wyniknęły tu jednak problemy. Ukończenie teorii pola strun jest dobrze matematycznie zdefiniowanym problemem, ale rozwiązanie go wymaga technik, które wykraczają poza umiejętności jakiegokolwiek fizyka żyjącego współcześnie. Stosowany tu obecnie rachunek zaburzeń (teoria perturbacji) przynosi dosłownie miliony rozwiązań (różnych sposobów zwinięcia dodatkowych wymiarów), a nikt nie wie, jak wybrać spośród nich to poprawne! Można powiedzieć, że problem leży w tym, że podczas gdy fizyka XXI wieku znalazła się w dwudziestym stuleciu, matematyka XXI wieku jeszcze nie powstała. Z drugiej strony, dla empirycznej weryfikacji tej teorii musielibyśmy dysponować energiami porównywalnymi z energią Wielkiego Wybuchu!
Witten w jednym z wywiadów powiedział: "Istoty ludzkie na Ziemi nigdy nie posiadały bazy pojęciowej, która doprowadziłaby je do świadomego stworzenia teorii strun. (...) Nikt nie wymyślił jej celowo, została odkryta przez szczęśliwy traf. Fizycy XX wieku w zasadzie nie powinni uzyskać przywileju studiowania tej teorii. Teoria strun nie miała prawa powstać, zanim nasza wiedza o pewnych ideach, które są dla teorii strun podstawowe, nie osiągnie poziomu umożliwiającego dokładne zrozumienie, o co w tym wszystkim chodzi".
Pytania o istotę świata
edytujOd czasów Newtona fizyka przebyła długą drogę i ciągle nie wiemy, jak daleko jeszcze do jej końca, do całkowitego zrozumienia istoty świata. W gruncie rzeczy nie wiemy nawet, czy taki koniec istnieje. Chociaż fizycy skłaniają się, przynajmniej w części, do poglądu, że kwarki i leptony to już cząstki podstawowe, ciągle nie ma pewności, czy nie są one zbudowane z czegoś jeszcze mniejszego. Jeśli cząstka nie jest punktem i posiada rozciągłość przestrzenną, to coś powinno zajmować tę przestrzeń. Czymkolwiek jest to "coś", właśnie z tego musi być zbudowana cząstka. Przy tym rozumowaniu, stosując w mikroświecie wyobrażenia o materii zaczerpnięte z naszego makroświata, dojdziemy do przekonania, że najbardziej elementarnej "cegiełki" w ogóle nie ma, że materia jest "nieskończona w głąb" (przychodzi tu na myśl powiedzenie Lenina o "niewyczerpywalności elektronu").
Można by sobie wyobrazić, że cząstka elementarna to coś w rodzaju chmury szarańczy, składającej się z setek tysięcy owadów. Poszczególne osobniki giną, inne się rodzą, ale w przypadku cząstki tych zjawisk już nie zaobserwujemy, bo rozmiar jednego "owada" jest wielokrotnie mniejszy od już i tak małej całej cząstki, a czas życia wielokrotnie krótszy. Możemy tylko obserwować trajektorię całej chmury (po śladach na polach :) ) i tylko przewidywać (zasada nieoznaczoności) jej zachowanie. Przy tak dużej ilości elementów "cząstka" będzie też przejawiała pewne własności falowe.
W świecie fizyki tak już jest, że wraz ze zmniejszaniem się obiektów gwałtownie wzrastają siły działające na te obiekty, od bardzo słabych sił grawitacyjnych oddziaływujących we wszechświecie do krańcowo potężnych sił wiążących ze sobą kwarki w nukleonach. Te ostatnie siły są tak wielkie, że dotychczas nie wykryto eksperymentalnie kwarków jako cząstek swobodnych. Gdyby te cząstki miałyby się składać z kolejnych mniejszych elementów, to, można przypuszczać, występowałby tam nowy rodzaj sił jeszcze potężniejszych.
Mechanika kwantowa z modelem standardowym, mimo niezaprzeczalnych osiągnięć (także w życiu codziennym: jej efektem są m.in. diody i tranzystory), jak już powiedziano, nie jest ostateczną teorią materii. Nie obejmuje ona grawitacji a jej zgodność z danymi doświadczalnymi okupiona została dopasowanymi (nie wynikającymi z teorii) parametrami. Nie jest to absolutnie elegancka teoria, czego należałoby oczekiwać od Uniwersalnej Teorii. Kontrowersyjna też jest jedna z podstawowych tez tej teorii: zasada nieoznaczoności. Osobiście nie podoba mi się świat, w którym, chociażby w najmniejszej skali, miałoby rządzić tylko prawdopodobieństwo. Myślę, że nie taka jest fizyka Natury. Bardziej byłbym skłonny już przypuszczać, że materia jest bardziej rozbudowana (jak w tej zoologicznej analogii powyżej) "w głąb" (może nawet nieskończenie) i dwa elektrony, będąc dla nas w tym samym stanie kwantowym, nie muszą się wcale jednakowo zachować (jakieś nieuchwytne dla nas, poniżej naszego progu obserwacji, różnice między nimi istnieją). Być może, fakt, że nie można jednocześnie z dowolnie dużą dokładnością określić położenia i pędu cząstki, związany jest z tym, że te wielkości w ogóle nie istnieją, a istnieją tylko fale interpretowane przez nas jako cząstki. Ale i w takim wypadku pełna charakterystyka takiej "falo-cząstki", a także jednocześnie innych (może nawet wszystkich we Wszechświecie, bo niektóre z oddziaływań mają przecież nieograniczony zasięg), powinna determinować zachowanie się tego, co interpretujemy np. jako pojedynczy elektron.
Generalnie, wydają się prawdopodobne dwa główne "scenariusze" podstawowej istoty materii:
- Tak, jak wcześniej powiedziano, materia jest "niewyczerpywalna w głąb". Byłby to obraz dosyć pesymistyczny, bo mógłby oznaczać, że nigdy nie dojdziemy do końca, chyba, że istnieje możliwa do odkrycia prawidłowość rządząca tą "niekończącą się złożonością".
- Materia, w naszym potocznym rozumieniu, w ogóle nie istnieje, a istnieją tylko fale, drgania, zakrzywienia czasoprzestrzeni itp., odbierane przez nas jako cząstki materii.
"Uznaję istnienie materii, lecz nie wiem, czy materia jest materialna" - F. Dostojewski
Perspektywy teorii strun
edytujByć może kluczem do stworzenia ostatecznej teorii są wielowymiarowe przestrzenie i właśnie teoria superstrun? Może właśnie geometria miniaturowej, około stu miliardów miliardów razy mniejszej od protonu, struny odpowiedzialna jest zarówno za pochodzenie sił jak i za strukturę materii? Jak widzieliśmy, w wyższych wymiarach zagadnienia się upraszczają a teorie zyskują na elegancji, obejmując swym zasięgiem większy zakres zjawisk. Słabym punktem teorii superstrun jest to, że nie potrafimy jej w chwili obecnej w żaden sposób udowodnić (tak samo, jak żadnej teorii zdefiniowanej przy energii Plancka wynoszącej 1019 miliardów elektronowoltów). Kontrowersje wzbudza zwłaszcza przestrzeń o dodatkowych, zwiniętych, wymiarach. Czy rzeczywiście świat posiada więcej niż trzy wymiary przestrzenne, a jeżeli tak, to dlaczego niektóre uległy zwinięciu?
- Płaski koń
Wydaje się oczywiste, że trzy wymiary to liczba minimalna, aby mogło istnieć bogactwo form, w szczególności tak skomplikowanych, jak materia ożywiona. Jako prosty przykład przedstawia się tutaj dwuwymiarowe zwierzę, które rozpadłoby się na dwie części rozdzielone przewodem pokarmowym. Równie trudno wyobrazić sobie na przykład obieg krwi w takim stworzeniu. Jeśli nasz obserwowalny Wszechświat jest "częścią" dziesięciowymiarowej czasoprzestrzeni, to można rozważać przynajmniej dwa wypadki:
- 10-wymiarowy świat znajdujący się w stanie o maksymalnej symetrii był niestabilny (o nadmiarze "energii wewnętrznej") i dążąc do stanu o równowagi załamał się: sześć "zbędnych" wymiarów uległo zwinięciu a 4-wymiarowa czasoprzestrzeń uległa rozszerzeniu wypełniając się materio-energią.
- Z dziesięciowymiarowej czasoprzestrzeni mogło powstać wiele "równoległych" światów, także o innej liczbie wymiarów, niż nasz świat, ale tylko w takiej czterowymiarowej czasoprzestrzeni mogły zaistnieć takie struktury materio-energii, z których powstałby nasz Kosmos i my sami.
Teoria superstrun to bardzo zaawansowany matematycznie model. Niektórzy z matematyków stwierdzili, że może należałoby ją traktować jako gałąź matematyki, bez względu na to, czy ma jakieś fizyczne znaczenie. Istotne przede wszystkim jest, aby opracowany model był doskonale zgodny z fizyczną rzeczywistością we wszystkich jej przejawach. Być może, że teoria superstrun będzie takim modelem. I być może, że wtedy na pytanie, z czego zbudowana jest ta mała struna, w czym rozchodzą się te drgania będące cząstkami elementarnymi, będziemy mogli tylko odpowiedzieć, że tym tworzywem jest eter...
Paradoksalne jest to, że im bardziej podstawowe i fundamentalne aspekty materii są badane, tym bardziej abstrakcyjne stają się rozważania nad nimi! Jeden z największych matematyków w XIX wieku, Alferd North Whitehead, powiedział, że matematyka na swoim najgłębszym poziomie jest nierozdzielna z fizyką na jej najgłębszym poziomie. Można jednak wierzyć, że u podstaw fizyki leży niewielki zbiór podstawowych zasad, mogących być wyrażonych prostym językiem, bez konieczności odwoływania się do matematyki. I że z tych zasad, wyrażonych już w formie eleganckiego równania matematycznego (ewentualnie zestawu równań), będzie można odtworzyć otaczający nas świat z całym bogactwem zjawisk fizycznych oraz jego przeszłością i przyszłością.
- W części oparto się na publikacji Michio Kaku "Hiperprzestrzeń" (wyd. polskie Prószyński i S-ka, 1999r.) oraz skorzystano (niektóre z ilustracji) z wydania polskiego "Ilustrowanej krótkiej historii czasu" Stephena Hawkinga (wyd. ZYSK i S-KA, 1996 r.).
Udziela się zgody na kopiowanie, dystrybucję i/lub modyfikację tego tekstu na warunkach licencji GNU Free Documentation License w wersji 1.2 lub nowszej, opublikowanej przez Free Software Foundation.
Kopia tekstu licencji umieszczona została pod hasłem GFDL. Dostepne jest również jej polskie tłumaczenie.