Trylemat mówi o tym, że nie da się osiągnąć optymalnej szybkości, bezpieczeństwa i decentralizacji w tym samym czasie. Trzeba poświęcić jeden element, aby zoptymalizować pozostałe dwa. Dla wielu sieci osiągnięcie wszystkich trzech elementów jest bardzo trudne, a wręcz niemożliwe.
Decentralizacja
Działanie w sposób zdecentralizowany nie jest takie proste do osiągnięcia, ponieważ każdy może dołączyć do sieci i niekoniecznie posiadać dobre intencje. Dlatego też publiczne łańcuchy bloków, w przeciwieństwie do powszechnych systemów, swoje działanie opierają na mechanizmach konsensusu. Konsensus to algorytm, który odpowiada za to, że sieć składająca się z wielu węzłów trzyma się pewnych założeń i w sposób zdecentralizowany osiąga zgodę co do stanu całego łańcucha.
Niestety wysoka decentralizacja sieci, która swoim zasięgiem oplata cały świat, oznacza większą ilość węzłów, co z kolei prowadzi do zmniejszenia przepustowości sieci, ponieważ każdy musi posiadać ten sam stan łańcucha i zweryfikować poprawność wszystkich transakcji.
Skalowalność
Każdy nowy projekt blockchain skupia swoją uwagę na zwiększeniu przepustowości, czyli przetwarzaniu jak największej ilości transakcji w jak najkrótszym czasie. Co więcej, transakcje powinny być jak najtańsze, aby użytkowników sieci było po prostu stać na używanie jej, ale nie za niskie, aby unikać spamu.
W wielu starszych i najczęściej używanych sieciach, które są ograniczone swoją budową, większa ilość transakcji prowadzi do zapchania sieci, co z kolei prowadzi do zwiększenia się opłat transakcyjnych. Zwykłe zwiększenie rozmiaru bloku nie jest rozwiązaniem, ponieważ w dłuższym terminie doprowadzi do centralizacji sieci. Większe bloki oznaczają więcej potrzebnego miejsca na dysku, co oznacza większe koszty sprzętu, a zachowanie takiej samej wydajności doprowadzi do zwiększenia potrzebnej mocy obliczeniowej. Dodatkowo wraz ze wzrostem ilości danych, które trzeba ściągnąć i wysłać zwiększa się potrzebna do tego przepustowość łącza internetowego itd.
Skalowalność jest jednym z największych problemów „starszych” łańcuchów takich jak Bitcoin, który, mimo że bardzo bezpieczny i zdecentralizowany przetwarza zaledwie kilka transakcji na sekundę.
Bezpieczeństwo
Chyba najważniejszym aspektem każdego projektu jest bezpieczeństwo łańcucha. Jeśli sieć jest podatna na ataki, to nikt nie będzie chciał z niej korzystać i ryzykować utraty swojego dorobku. Są różne techniki zapewniania bezpieczeństwa sieci i zawsze oznaczają duże finansowe ryzyko dla potencjalnych napastników. Od absurdalnie wysokich kosztów sprzętu i energii elektrycznej potrzebnej do zaatakowania sieci Bitcoina, aż do koncepcji Slashingu proponowanej przez systemy Proof of Stake.
Trylemat
Wysokie bezpieczeństwo idzie w parze z decentralizacją, ale kosztem możliwych do przetworzenia transakcji na sekundę. Bezpieczeństwo i niesamowita skalowalność oznacza ograniczenie się do kilku zaufanych węzłów, co zmniejsza lub nawet całkowicie eliminuje decentralizację. Wysoka decentralizacja i świetna przepustowość sieci oznacza poświęcenie bezpieczeństwa i podatność na ataki, ale ta trzecia opcja raczej nigdy nie jest nawet brana pod uwagę przy tworzeniu łańcuchów bloków.
Rozwiązania?
Na poziomie warstwy pierwszej, czyli sieci Bitcoin, Ethereum itp. ciężko pozbyć się problemów związanych z tym zagadnieniem, jednak najczęściej wymienianym rozwiązaniem, oprócz całkowitej zmiany podejścia do tworzenia łańcucha, jest sharding, czyli dzielenie bazy danych na fragmenty.
Mówiąc o rozwiązaniu wszystkich problemów związanych z trylematem najczęściej pratrzy sie w stronę drugiej warstwy (Layer2). Różne rozwiązania takie jak Lightning Network działające dla Bitcoina, sidechainy i zk-rollup Ethereum itd. mogą okazać się lekarstwem. Szybkość rozwiązań drugiej warstwy wykorzystujących bezpieczeństwo i decentralizację warstwy pierwszej wydają się być optymalnym wyjściem dla wielu sieci.
Mimo że rozwiązanie tego trylematu jest ciężkie to kilka projektów twierdzi, że poradziło sobie z tym problemem, są to np. Algorand i Solana.