Accueil : Bits et octets : Définition Gigabit

Gigabit

Un gigabit est 109 ou 1,000,000,000 les bits.

Un gigabit (en abrégé "Gb") est égal à 1,000 mégabits ou 1,000,000 kilobits. C'est un huitième de la taille d'un gigaoctet (GB).

Les gigabits sont le plus souvent utilisés pour mesurer taux de transfert de données des locaux réseaux et I / O les liaisons. Gigabit Ethernet, par exemple, est une solution courante. Ethernet standard prenant en charge des taux de transfert de données de 1 gigabit par seconde (Gbps) sur un réseau Ethernet filaire. Technologies d’E / S modernes, telles que USB 3.0 et Coup de tonnerre sont également mesurés en gigabits par seconde. USB 3.0 peut transférer des données jusqu’à 5 Gbps, alors que Thunderbolt 1.0 peut transférer des données de manière bidirectionnelle à 10 Gbps.

Bien que les gigabits et les gigaoctets semblent similaires, il est important de ne pas confondre les deux termes. Puisqu'il y a huit bits dans un octet, il y a aussi huit gigabits dans un gigaoctet. Les gigabits sont le plus souvent utilisés pour décrire les vitesses de transfert de données, tandis que les gigaoctets sont utilisés pour mesurer le stockage de données.

TechLib - Le dictionnaire informatique Tech Lib

Cette page contient une définition technique de gigabit. Il explique en terminologie informatique ce que signifie Gigabit et est l’un des nombreux termes informatiques du dictionnaire TechLib.

Toutes les définitions sur le site Web TechLib sont écrites pour être techniquement exactes mais également faciles à comprendre. Si vous trouvez que cette définition Gigabit est utile, vous pouvez la référencer en utilisant les liens de citation ci-dessus.