Auta stają się coraz bardziej komfortowe, "dbają" o nas, same kontaktują się z centrami serwisowymi lub satelitami, zapewniając nam komfort bezstresowego prowadzenia, trafiania do miejsca przeznaczenia czy unikania awarii. A wszystko to - i miliony innych dziedzin opartych na transferze i obróbce informacji - zaczęło się od jednego człowieka. Claude Shannon, profesor matematyki i inżynierii elektrotechnicznej, jako pierwszy znalazł praktyczne zastosowanie matematycznej teorii binarnej (w największym uproszczeniu: układu dwójkowego) i rozwijając ją twórczo przez powiązanie z teoriami entropii i chaosu, stworzył kompletny model informacyjny. Swe rozumowanie oparł na najprostszym systemie, który pozwala jednoznacznie rozpoznać znaczenie każdego znaku dwójkowego (z angielskiego "binary digit", w skrócie "bit"). Zadając konkretne i przemyślane pytania, na które możliwe są tylko odpowiedzi "tak" lub "nie", można nawet najtrudniejszy problem (lub informację) przedstawić w formie kilku-kilkunastu działań w rodzaju sygnał-odpowiedź. Jeśli zastosuje się do ich wysyłania i odbioru odpowiednio skonstruowane (acz per saldo bardzo proste) urządzenia, nawet w największym chaosie sygnałowym ten konkretny zawsze zostanie odebrany i prawidłowo zinterpretowany. I właśnie tak to wszystko działa.
Bit za bitem: informatyka
Dziś nie można obejść się bez komputerów. Także w motoryzacji, gdzie bez cyfrowego przesyłania impulsów i informacji pomiędzy poszczególnymi podzespołami a centralnym sterownikiem nie ma mowy o funkcjonowaniu takich elementów jak silnik czy instrumenty pokładowe lub systemy bezpieczeństwa.