1バイトは何ビット?

2月に入ってTwitterで1バイトは何ビットなのか話題になりました。原因はSEライダーさんのつぶやきが発端となり、togetterでまとめられました。

この件に関して、私が以前Qiitaに書いた記事が間接的に関与してしまっています。話題になったことで、この記事のLGTMが80くらい増えました。

もともと、素朴な疑問からこの記事を書いたのです。
昔は4bitのCPUがあり、その時も1バイトが8bitなのか4bitではないのか?という疑問がわいたわけです。
その後に、なぜ、1バイトは8bitになったのだろうという疑問から調べて記事を書きました。
私自身8bit、16bit、32bit、64bitといった一般的なPCの世界しか知りません。昔のメインフレーム(大型汎用サーバー)は現在までも関わった経験がなく調べていく中でワードマシンで18bit、24bit、36bitなどがあることを知りました。この頃は1バイトは6bitまたは9bitとなります。

私が他記事を参考に基本単位が8bitになった理由としたのが、英語大文字+英語小文字+数字を表現するだけで26+26+10=62パターンで6bit、プラスやマイナス等の特殊記号を表現させるために最低でも7ビット必要となります。これに通信用のパリティビットを表現させたりするために、プラス1ビットを追加した8ビットが1バイトとしたものでした。

しかし、このパリティ説は間違いでした。

1バイトは何ビットなのかが話題になったことにより、ITmedia NEWSの大原雄介さんが歴史的経緯から書かれた記事で解決しました。

やはり、プロの書かれた記事と所詮はコタツ記事でしかない私のものでは違いますね。

この記事が気に入ったらサポートをしてみませんか?