Format UUID: 8-4-4-4-12 – Pourquoi?

Pourquoi les UUID sont-ils présentés dans le format “8-4-4-4-12” (chiffres)? J’ai cherché la raison, mais je ne trouve pas la décision qui l’exige.

Exemple d’UUID formaté en chaîne hexadécimale: 58D5E212-165B-4CA0-909B-C86B9CEE0111

Il est séparé par time, version, clock_seq_hi, clock_seq_lo, node , comme indiqué dans le rfc suivant.

De l’ IETF RFC4122:

 4.1.2. Layout and Byte Order To minimize confusion about bit assignments within octets, the UUID record definition is defined only in terms of fields that are integral numbers of octets. The fields are presented with the most significant one first. Field Data Type Octet Note # time_low unsigned 32 0-3 The low field of the bit integer timestamp time_mid unsigned 16 4-5 The middle field of the bit integer timestamp time_hi_and_version unsigned 16 6-7 The high field of the bit integer timestamp multiplexed with the version number clock_seq_hi_and_rese unsigned 8 8 The high field of the rved bit integer clock sequence multiplexed with the variant clock_seq_low unsigned 8 9 The low field of the bit integer clock sequence node unsigned 48 10-15 The spatially unique bit integer node identifier In the absence of explicit application or presentation protocol specification to the contrary, a UUID is encoded as a 128-bit object, as follows: The fields are encoded as 16 octets, with the sizes and order of the fields defined above, and with each field encoded with the Most Significant Byte first (known as network byte order). Note that the field names, particularly for multiplexed fields, follow historical practice. 0 1 2 3 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 0 1 +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+ | time_low | +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+ | time_mid | time_hi_and_version | +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+ |clk_seq_hi_res | clk_seq_low | node (0-1) | +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+ | node (2-5) | +-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+-+ 

Le format est défini dans l’ IETF RFC4122 de la section 3. Le format de sortie est défini à l’emplacement “UUID = …”

3.- Modèle d’enregistrement de l’espace de noms

ID de l’espace de noms: UUID Informations d’enregistrement: Date d’inscription: 2003-10-01

Déclarant déclaré de l’espace de noms: JTC 1 / SC6 (Groupe de protractors ASN.1)

Déclaration de structure syntaxique: Un UUID est un identifiant unique à la fois dans l’espace et dans le temps, par rapport à l’espace de tous les UUID. Étant donné qu’un UUID est une taille fixe et contient un champ de temps, il est possible de remplacer des valeurs (autour de AD 3 400, en fonction de l’algorithme spécifique utilisé). Un UUID peut être utilisé à des fins multiples, du balisage d’objects d’une durée de vie extrêmement courte, à l’identification fiable d’objects très persistants sur un réseau.

  The internal representation of a UUID is a specific sequence of bits in memory, as described in Section 4. To accurately represent a UUID as a URN, it is necessary to convert the bit sequence to a ssortingng representation. Each field is treated as an integer and has its value printed as a zero-filled hexadecimal digit ssortingng with the most significant digit first. The hexadecimal values "a" through "f" are output as lower case characters and are case insensitive on input. The formal definition of the UUID ssortingng representation is provided by the following ABNF [7]: UUID = time-low "-" time-mid "-" time-high-and-version "-" clock-seq-and-reserved clock-seq-low "-" node time-low = 4hexOctet time-mid = 2hexOctet time-high-and-version = 2hexOctet clock-seq-and-reserved = hexOctet clock-seq-low = hexOctet node = 6hexOctet hexOctet = hexDigit hexDigit hexDigit = "0" / "1" / "2" / "3" / "4" / "5" / "6" / "7" / "8" / "9" / "a" / "b" / "c" / "d" / "e" / "f" / "A" / "B" / "C" / "D" / "E" / "F" 

Le format UUID est juste pour la lecture. L’UUID est vraiment un nombre de 128 bits. Considérez le format de chaîne nécessite le double des octets que le nombre 128 bits lorsqu’il est stocké ou en mémoire. Je suggère d’utiliser le numéro en interne et, lorsqu’il doit être affiché sur une interface utilisateur ou exporté dans un fichier, utilisez le format de chaîne.

Lectures complémentaires: https://en.wikipedia.org/wiki/Universally_unique_identifier