w większości systemów komputerowych bajt jest jednostką danych o długości ośmiu cyfr binarnych. Bajt jest jednostką używaną przez większość komputerów do reprezentowania znaków, takich jak litera, Liczba lub symbol typograficzny. Każdy bajt może zawierać ciąg bitów, które muszą być użyte w większej jednostce do celów aplikacji. Jako przykład, strumień bitów może stanowić obraz wizualny dla programu, który wyświetla obrazy. Innym przykładem jest ciąg bitów, które stanowią kod maszynowy programu komputerowego.,

w niektórych systemach komputerowych cztery bajty stanowią słowo, jednostkę, którą procesor komputerowy może zaprojektować do wydajnej obsługi podczas odczytu i przetwarzania każdej instrukcji. W zależności od możliwości, niektóre procesory komputerowe mogą obsługiwać instrukcje dwubajtowe lub jednobajtowe. Skrypty językowe mogą czasami wymagać dwóch bajtów do reprezentowania znaku. Są to tzw. zestawy znaków dwubajtowych.

bajt jest skracany wielkimi literami B.

ile bitów w bajcie?

bit jest reprezentowany przez małe litery b., Podczas gdy bajt może zawierać literę lub symbol, bit jest najmniejszą jednostką pamięci, przechowującą tylko jedną cyfrę binarną. Standardowa liczba bitów w bajcie wynosi osiem, ale liczba ta może się różnić w zależności od systemu, w zależności od sprzętu.

Fred Brooks, wczesny architekt sprzętowy w IBM, kierownik projektu systemu operacyjnego IBM OS / 360 i autor mitycznego miesiąca człowieka, przypisuje Wernerowi Buchholzowi pochodzenie terminu bajt w 1956 roku podczas pracy nad komputerem STRETCH firmy IBM. Początkowo w bajcie mogło być od jednego do sześciu bitów, ponieważ ówczesne urządzenia wykorzystywały 6-bitowe informacje., Zmiana na osiem bitów w bajcie nastąpiła jeszcze w tym samym roku, gdy OS / 360 obiegał nowy standard.

kolejną jednostką danych reprezentującą osiem bitów jest oktet. W przeciwieństwie do bajtu, oktet zawsze składa się z ośmiu bitów, bez względu na architekturę. Oktety, jako miara, mogą być używane w celu uniknięcia ewentualnych niejasności związanych z bajtami, szczególnie w starszych systemach, ale terminy są często używane synonimicznie.

nibble lub quadbit odnosi się do czterech bitów, lub połowy standardowego bajtu / oktetu.,

typy bajtów

podczas gdy bajty są mierzone w wielokrotnościach bitowych, pamięć komputerowa jest zazwyczaj mierzona w wielokrotnościach bajtów. W wielu architekturach komputerów bajt jest najmniejszą adresowalną jednostką pamięci. Na przykład dysk twardy o pojemności 820 megabajtów (MB) zawiera nominalne 820 milionów bajtów danych. Z powodu ogromnego wzrostu pojemności pamięci masowej w czasie, istnieje teraz osiem dodatkowych jednostek miary po bajcie. Osiem różnych typów bajtów używanych obecnie w architekturach komputerów waha się od kilobajtów (1024 bajty) do jottabajtów (1024 zettabajty).,

wielokrotności bajtów można zmierzyć za pomocą dwóch systemów: base-2 lub base-10. System bazowy-2 lub binarny jest zwykle wyrażany jako zaokrąglona liczba dziesiętna. Jeden megabajt (1 milion bajtów) w rzeczywistości składa się z 1 048 576 bajtów według definicji base-2.

a base-10 system stwierdza, że bajty dla pamięci komputera powinny być obliczane jako potęgi 10. W tym systemie MB to 1 milion bajtów dziesiętnych. System ten jest obecnie najczęściej spotykany wśród producentów i konsumentów., Podczas gdy różnica między systemami base-2 i base-10 była kiedyś dość niewielka, wraz ze wzrostem pojemności, rozbieżność znacznie się rozszerzyła.

prefiksy

zrozumienie prefiksów używanych w bajtach może pomóc w dalszej identyfikacji rozmiaru bajtu i ilości danych zawartych w tym, co możemy powszechnie używać. Powszechnie używane prefiksy obejmują kilobajty, megabajty, gigabajty i terabajty.

kilobajt (KB) jest równy 1024 bajtom. Mały e-mail może być uważany za około dwóch kilobajtów, a trzy stronicowy papier około 25 kilobajtów.,

megabajty (MB) są równe 1 048 576 bajtów. W przypadku dźwięku o normalnej jakości utwór wynosi około 3-4 megabajty—około jednego megabajta na minutę. Wysokiej jakości zdjęcie może wynosić około 2-5 megabajtów.