Zmniejszanie rozmiaru plików audio to temat, który interesuje zarówno twórców muzyki, jak i użytkowników streamingu. W tym artykule wyjaśnimy, czym różnią się kodeki perceptualne (stratne) od bezstratnych, jak działają, jakie mają zalety i wady oraz jak wpływają na jakość dźwięku.
Tag: dźwięk
Dźwięk bez tajemnic: jak naprawdę działa audio, akustyka i zapis cyfrowy?
W świecie audio pełnym marketingowych sloganów i „magicznych kabli” warto wrócić do podstaw – do fizyki dźwięku. Żadne wzmacniacze, formaty i kodeki nie mają sensu, jeśli nie rozumiemy, czym jest dźwięk i jak zachowuje się w przestrzeni. Ten artykuł systematycznie wyjaśnia najważniejsze pojęcia – od fal akustycznych, przez mikrofony i głośniki, po fundamenty audio cyfrowego. Bez uproszczeń, ale też bez przesadnie akademickiego języka.
Czym jest dźwięk?
Dźwięk to zjawisko fizyczne – zaburzenie ciśnienia w ośrodku (zwykle w powietrzu), które propaguje się w postaci fal. Aby powstał dźwięk, musi coś wprawić powietrze w drgania: struna skrzypiec, membrana głośnika, przeponka mikrofonu, a nawet struny głosowe człowieka.
Kiedy smyczek przesuwa się po strunie skrzypiec, struna zaczyna drgać, ściskając i rozrzedzając powietrze wokół siebie. Ta zmiana ciśnienia przesuwa się dalej – cząsteczki powietrza zderzają się, przekazując energię.
Dźwięk w powietrzu to fala podłużna, czyli taka, w której cząsteczki przemieszczają się w tym samym kierunku, co fala.
Transduktory – to one rządzą światem audio
Transduktor to urządzenie, które zamienia jedną formę energii w inną.
- Skrzypce – zamieniają energię mechaniczną smyczka w falę akustyczną.
- Mikrofon – zamienia energię akustyczną na elektryczną.
- Głośnik – odwrotnie: z prądu tworzy falę akustyczną.
Całe audio to łańcuch transdukcji: akustyka → elektryczność → cyfrowy zapis → z powrotem do elektryczności → akustyki.
Nigdy nie słyszymy „sygnału cyfrowego” – zawsze tylko powietrze, które drga przy naszym uchu.
Częstotliwość, okres, widmo – co naprawdę słyszymy?
Drganie, które się powtarza, ma częstotliwość, czyli liczbę cykli na sekundę, wyrażaną w hercach (Hz).
- 20 Hz – najniższy bas, długość fali ~17 m
- 20 kHz – górna granica ludzkiego słuchu, długość fali ~1,7 cm
Ponieważ prędkość dźwięku w powietrzu wynosi ok. 343 m/s, długość fali zależy wyłącznie od częstotliwości:
długość fali = prędkość dźwięku / częstotliwość
Większość urządzeń audio ma ograniczone pasmo – bandwidth. Głośnik, mikrofon lub słuchawki nigdy nie przenoszą idealnie pełnego zakresu.
Faza, interferencja i „dziwne” brzmienie
Dwie fale mogą być:
- w fazie – ich wznosy i opadania pokrywają się → dźwięk się wzmacnia
- w przeciwfazie – znoszą się → dźwięk się osłabia lub zanika
To zjawisko tłumaczy m.in. działanie noise-cancellingu, zjawisko dudnienia i problemy akustyczne w pomieszczeniach.
Dyfrakcja i kierunkowość
Fale dźwiękowe zaginają się na przeszkodach (dyfrakcja). Im dłuższa fala, tym łatwiej obiega barierę.
Dlatego:
- bas przechodzi przez ściany, a wysokie pasma – nie
- zasłonięcie tweetera gazetą tłumi wysokie częstotliwości, ale nie bas
Głośność, SPL i decybele
Ciśnienie akustyczne jest niewiarygodnie małe.
Normalne ciśnienie atmosferyczne to ok. 101 325 Pa. Nawet głośna muzyka zmienia je zaledwie o ułamki paskala.
Z powodu ogromnego zakresu głośności (milion do jednego!), używamy skali logarytmicznej – decybeli (dB).
- 0 dB SPL – próg słyszalności
- 120 dB SPL – próg bólu
Decybele nie dodają się liniowo!
Dwa identyczne źródła 50 dB dają nie 100, lecz ok. 53 dB.Harmoniczne, barwa i twierdzenie Fouriera
Sine wave (sinusoida) to najprostszy dźwięk – czysta częstotliwość.
Każdy realny dźwięk – instrumentu, głosu, głośnika – składa się z tonu podstawowego + harmonicznych (wielokrotności częstotliwości podstawowej).
To właśnie relacje amplitud i faz harmonicznych tworzą barwę instrumentu.
Twierdzenie Fouriera mówi:
każdy dźwięk okresowy można rozłożyć na sumę sinusoid
I odwrotnie: każdy dźwięk można zbudować, dodając sinusoidy.
Na tym bazuje synteza dźwięku i FFT w analizatorach widma.Cyfra kontra analog – nie chodzi o „brzmienie”, tylko o fizykę
Analog = sygnał ciągły (bez przerw)
Cyfra = sygnał reprezentowany liczbami (próbkami)Komputer nie wie, czym jest fala. On liczy – zera i jedynki. Każdy dźwięk musi zostać zapisany jako liczby.
Liczba możliwych wartości zależy od liczby bitów:
- 2 bity → 4 poziomy
- 16 bitów → 65 536 poziomów
- 24 bity → 16,7 mln poziomów
Dlatego 24-bitowy zapis ma większą dynamikę niż 16-bitowy.
Dlaczego cyfra wygrała?
- analogowy sygnał przy każdym etapie traci jakość (szum, zniekształcenia)
- cyfrowy można kopiować bezstratnie
- przetwarzanie cyfrowe (DSP) jest tańsze, dokładniejsze i powtarzalne
Nie oznacza to, że „cyfra brzmi lepiej”.
Brzmi inną kopią oryginału – lepszą pod względem szumu i zniekształceń, ale wciąż kopią.Największy mit audio: „cyfra jest nienaturalna”
W rzeczywistości nikt nigdy nie słyszy cyfry.
Słyszysz tylko:- Dźwięk akustyczny na wejściu
- Dźwięk akustyczny na wyjściu
Wszystko pomiędzy – mikrofony, konwertery, procesory – to jedynie przetwarzanie sygnału.
Realność brzmienia zależy nie od formatu, lecz od jakości transdukcji, realizacji nagrania i akustyki pomieszczenia.Podsumowanie
Dźwięk to fizyka, nie magia.
Rozumiejąc zasady fal akustycznych, fazy, harmonicznych i cyfrowego zapisu, przestajemy wierzyć w szarlatanerię audio i możemy świadomie dobierać sprzęt – nie dla marketingu, lecz dla rzeczywistego brzmienia.