Mi A Gigabájt

Mi A Gigabájt
Mi A Gigabájt

Videó: Mi A Gigabájt

Videó: Mi A Gigabájt
Videó: НЕ ПОКУПАЙ ЭТОТ XIAOMI 2024, Lehet
Anonim

Amikor a civilizáció fejlődése elérte a számítógépes adatfeldolgozás pontját, elég sok új kifejezés és koncepció merült fel. Különösen szükségessé vált valamilyen módon kijelölni a tárolóeszközökön tárolt és hálózatokon keresztül továbbított információegységeket. A személyi számítógépek, lejátszók és mobiltelefonok megjelenésével pedig sok speciálisan használt kifejezés vált széles körben ismertté.

Mi a gigabájt
Mi a gigabájt

A lehető legkisebb informatív egység két értékből áll - "igen" vagy "nem", 0 vagy 1. 1948 óta ezt az egységet "bit" -nek hívják. A számítógépes feldolgozás során minden információt bitekre bontunk - számokra, szövegre, színre, hangra, térbeli helyzetre stb. A processzor minden adategységet egymás után dolgozza fel, de a bitbeillesztés túl hosszúvá teszi a várólistát, és így korlátozza a teljesítményt. Ezért a modern processzorok 8 egységből álló információs egységek csoportjaival dolgoznak - ezt a csoportot "bájtnak" nevezik, és a számítógépes adatfeldolgozás minimális egységének tekintik. Bájtokba csoportosítva az információkat a lemezek vagy a virtuális memória tárolják, és hálózati kapcsolatokon keresztül is továbbítják.

A SI egységek metrikus rendszerében, amelyet ma a legtöbb országban elfogadnak, rögzítik azokat a szabályokat, amelyek szerint az esetleges mértékegységeket méretezik. Az ebben a rendszerben elfogadott értéknél ezerszer magasabb érték kijelöléséhez a "kilo" előtagot kell hozzáadni a nevéhez. Például 1000 gramm = 1 kilogramm, 1000 bájt = 1 kilobájt. Ugyanezek az előtagok vannak más ezerszer megnövelt egységeknél is - egymillióhoz hozzárendelik a "mega" előtagot (1 000 000 bájt = 1000 kilobájt = 1 megabájt), egymilliárdhoz pedig a "giga" előtagot. Ezért 1 gigabájt milliárd minimális információegységnek - bájtnak felel meg.

Mivel azonban a számítógépes információk bináris jellegűek (igen / nem, 0/1), az informatikusok belső igényeikhez a processzorok megjelenésétől kezdve nem a tizedes számrendszert használják, mint az SI-ben, hanem binárisan. Emiatt gyakran felmerül a zavar a gigabájt pontos meghatározásával - a bináris rendszerben ez az egység nem 10⁹ (1 milliárd), hanem 2 2⁰ (1 073 741 824) értéknek felel meg. Leggyakrabban ezzel az eltéréssel találkoznak különféle tárolóeszközök (merevlemezek, flash meghajtók, lejátszók stb.) Vásárlásakor - a gyártók a gigabájtok értelmezésében jelzik kapacitásukat, ami kedvezőbb megvilágításban mutatja a terméket.