Albo: jak za 0 złotych dostać więcej niż ze 100 000 zł upgradu w sklepie
Jesteś w salonie audio. Sprzedawca patrzy na ciebie z fałszywym współczuciem: „Te kolumny? Ee, do nich potrzebujesz pan lepszego wzmacniacza. I te kable… no cóż, stare kable to wąskie gardło. A źródło? Vinyl koniecznie, najlepiej gramofon za 15 tysięcy.”
No i wiesz, że menda kłamie.
Nie dlatego, że jest złym człowiekiem. Kłamie, bo prawda zniszczyłaby cały jego biznes. A prawda jest brutalna i prosta: 70-80% tego, co słyszysz, to pokój i ustawienie kolumn. Dopiero reszta, która zostaje to sprzęt. Kupowanie droższej elektroniki bez ogarnięcia akustyki pomieszczenia to jak montowanie silnika Ferrari w Maluchu nie pozbywając się nawet rdzy i bez modów zawieszenia – pieniądze w błoto, efekt żaden – tylko się narobisz.
Fizyka nie negocjuje: pokój to część systemu, największa i najważniejsza cześć.
W świecie audio pełnym marketingowych sloganów i „magicznych kabli” warto wrócić do podstaw – do fizyki dźwięku. Żadne wzmacniacze, formaty i kodeki nie mają sensu, jeśli nie rozumiemy, czym jest dźwięk i jak zachowuje się w przestrzeni. Ten artykuł systematycznie wyjaśnia najważniejsze pojęcia – od fal akustycznych, przez mikrofony i głośniki, po fundamenty audio cyfrowego. Bez uproszczeń, ale też bez przesadnie akademickiego języka.
Czym jest dźwięk?
Dźwięk to zjawisko fizyczne – zaburzenie ciśnienia w ośrodku (zwykle w powietrzu), które propaguje się w postaci fal. Aby powstał dźwięk, musi coś wprawić powietrze w drgania: struna skrzypiec, membrana głośnika, przeponka mikrofonu, a nawet struny głosowe człowieka.
Kiedy smyczek przesuwa się po strunie skrzypiec, struna zaczyna drgać, ściskając i rozrzedzając powietrze wokół siebie. Ta zmiana ciśnienia przesuwa się dalej – cząsteczki powietrza zderzają się, przekazując energię.
Dźwięk w powietrzu to fala podłużna, czyli taka, w której cząsteczki przemieszczają się w tym samym kierunku, co fala.
Transduktory – to one rządzą światem audio
Transduktor to urządzenie, które zamienia jedną formę energii w inną.
Skrzypce – zamieniają energię mechaniczną smyczka w falę akustyczną.
Mikrofon – zamienia energię akustyczną na elektryczną.
Głośnik – odwrotnie: z prądu tworzy falę akustyczną.
Całe audio to łańcuch transdukcji: akustyka → elektryczność → cyfrowy zapis → z powrotem do elektryczności → akustyki.
Nigdy nie słyszymy „sygnału cyfrowego” – zawsze tylko powietrze, które drga przy naszym uchu.
Częstotliwość, okres, widmo – co naprawdę słyszymy?
Drganie, które się powtarza, ma częstotliwość, czyli liczbę cykli na sekundę, wyrażaną w hercach (Hz).
20 Hz – najniższy bas, długość fali ~17 m
20 kHz – górna granica ludzkiego słuchu, długość fali ~1,7 cm
Ponieważ prędkość dźwięku w powietrzu wynosi ok. 343 m/s, długość fali zależy wyłącznie od częstotliwości:
długość fali = prędkość dźwięku / częstotliwość
Większość urządzeń audio ma ograniczone pasmo – bandwidth. Głośnik, mikrofon lub słuchawki nigdy nie przenoszą idealnie pełnego zakresu.
Faza, interferencja i „dziwne” brzmienie
Dwie fale mogą być:
w fazie – ich wznosy i opadania pokrywają się → dźwięk się wzmacnia
w przeciwfazie – znoszą się → dźwięk się osłabia lub zanika
To zjawisko tłumaczy m.in. działanie noise-cancellingu, zjawisko dudnienia i problemy akustyczne w pomieszczeniach.
Dyfrakcja i kierunkowość
Fale dźwiękowe zaginają się na przeszkodach (dyfrakcja). Im dłuższa fala, tym łatwiej obiega barierę.
Dlatego:
bas przechodzi przez ściany, a wysokie pasma – nie
zasłonięcie tweetera gazetą tłumi wysokie częstotliwości, ale nie bas
Głośność, SPL i decybele
Ciśnienie akustyczne jest niewiarygodnie małe.
Normalne ciśnienie atmosferyczne to ok. 101 325 Pa. Nawet głośna muzyka zmienia je zaledwie o ułamki paskala.
Z powodu ogromnego zakresu głośności (milion do jednego!), używamy skali logarytmicznej – decybeli (dB).
0 dB SPL – próg słyszalności
120 dB SPL – próg bólu
Decybele nie dodają się liniowo! Dwa identyczne źródła 50 dB dają nie 100, lecz ok. 53 dB.
Harmoniczne, barwa i twierdzenie Fouriera
Sine wave (sinusoida) to najprostszy dźwięk – czysta częstotliwość.
Każdy realny dźwięk – instrumentu, głosu, głośnika – składa się z tonu podstawowego + harmonicznych (wielokrotności częstotliwości podstawowej).
To właśnie relacje amplitud i faz harmonicznych tworzą barwę instrumentu.
Twierdzenie Fouriera mówi:
każdy dźwięk okresowy można rozłożyć na sumę sinusoid
I odwrotnie: każdy dźwięk można zbudować, dodając sinusoidy. Na tym bazuje synteza dźwięku i FFT w analizatorach widma.
Cyfra kontra analog – nie chodzi o „brzmienie”, tylko o fizykę
Komputer nie wie, czym jest fala. On liczy – zera i jedynki. Każdy dźwięk musi zostać zapisany jako liczby.
Liczba możliwych wartości zależy od liczby bitów:
2 bity → 4 poziomy
16 bitów → 65 536 poziomów
24 bity → 16,7 mln poziomów
Dlatego 24-bitowy zapis ma większą dynamikę niż 16-bitowy.
Dlaczego cyfra wygrała?
analogowy sygnał przy każdym etapie traci jakość (szum, zniekształcenia)
cyfrowy można kopiować bezstratnie
przetwarzanie cyfrowe (DSP) jest tańsze, dokładniejsze i powtarzalne
Nie oznacza to, że „cyfra brzmi lepiej”. Brzmi inną kopią oryginału – lepszą pod względem szumu i zniekształceń, ale wciąż kopią.
Największy mit audio: „cyfra jest nienaturalna”
W rzeczywistości nikt nigdy nie słyszy cyfry. Słyszysz tylko:
Dźwięk akustyczny na wejściu
Dźwięk akustyczny na wyjściu
Wszystko pomiędzy – mikrofony, konwertery, procesory – to jedynie przetwarzanie sygnału. Realność brzmienia zależy nie od formatu, lecz od jakości transdukcji, realizacji nagrania i akustyki pomieszczenia.
Podsumowanie
Dźwięk to fizyka, nie magia. Rozumiejąc zasady fal akustycznych, fazy, harmonicznych i cyfrowego zapisu, przestajemy wierzyć w szarlatanerię audio i możemy świadomie dobierać sprzęt – nie dla marketingu, lecz dla rzeczywistego brzmienia.