まだ生きているMIDI:「神田伯山のこれがわが社の黒歴史 (2) ヤマハ・半導体の落とし穴」の感想にかえて

NHK「これがわが社の黒歴史」第2回はヤマハの半導体。23日放送 - AV Watch

YMF715EやYMF744-B*1の元ユーザとして、興味深く視聴した。

放送では「半導体」と一括りにされていたが、個人的にはアレは「音源チップ」の話だと解釈した。ざっくりといえばMIDI音源として機能するチップである。もちろんヤマハはそれ以外の機能の集積回路も扱っていると思うのだが、放送内容の中核となっていたのはMIDI音源のチップだと感じた。

MIDI音源といえば、数年前に20代前半の技術者から「MIDIって過去の遺物ですよね?」みたいなことを言われた。よく考えれば、パソコンを中心に据えた歴史認識だと「MIDIは廃れた」ということになっても不思議ではないのかもしれない(DTMの分野をかじっていれば別だろうけど)。

私としては、今のMIDIは一周して原点回帰した状態だと思っている。番組の感想にかえて、この辺を文章にまとめておきたい。

MIDIの原点は、シンセサイザーにおける「鍵盤ユニット」と「音源ユニット」の分離にある。分離するにあたり、「鍵盤ユニット」と「音源ユニット」の間で通信が必要となるが、通信の物理仕様と論理仕様について「楽器メーカー間の共通規格」として定められたのがMIDI 1.0である。

物理仕様はMIDIケーブルやコネクタの形状、あと「31.25kbpsのシリアル通信*2」といったあたりだろうか?

論理仕様は、一般に「MIDIメッセージ」といわれているアレである。大半は1~3byteのメッセージで構成されている。また「メッセージを1byteずつ読み進めて処理していく」という暗黙の前提の下で、可変長のシステムエクスクルーシブや、データ量を削減するランニング・ステータスのような仕様も含まれている。MIDI 1.0の仕様がまとめられたのは1980年代初頭だが、当時の8bitマイコンで処理を行うことを考慮した仕様である――と風の噂で聞いたことがあるが、真偽は定かではない。

ところで、論理仕様としての「MIDIメッセージ」が登場したことにより「人間が鍵盤ユニットを操作しなくても、プログラムなどでMIDIメッセージ生成して音源ユニットに流し込めば、音が鳴る」という可能性が出てきた。後にSMF(スタンダードMIDIファイル)が登場したことや、GMによる音色配列の最低限の統一がなされたこともあり、1990年代にはパソコン向けの音楽ファイルの1つとしてMIDI(というかSMF)が挙げられることもあった。当時のパソコンのCPUは今よりも遥かに貧弱で、メモリ容量は少なくて、ハードディスクの容量も少なくてかつ高価だった訳で、実際の演奏を録音した大きなWAVファイルをメモリにロードしてCPUを使って再生する代わりに、コンパクトなSMFに演奏情報を格納しておいて「MIDI音源」というハードウェア*3で発音させてCPUはフリーハンドにしておく――という手法にはそれなりの合理性があったように思う。

さて、ここまでに挙げたMIDIの3つの側面について「物理仕様」「論理仕様」「音楽ファイル」とラベリングした上で、それぞれが現在どうなっているか見てみたい。

まず「音楽ファイル」としてのMIDIは、少なくとも一般向けとしては姿を消した。元々SMFを再生した時の演奏音は使用するMIDI音源に依存していた訳で、特定のMIDI音源に決め打ちでもしない限り、どうしても楽曲作成における制約が大きくなりがちだった。パソコンの性能向上によりPCM再生の負荷が低減していくと、必然的に「実際に録音した音」の波形を再生するWAV(そしてMP3に始まる圧縮された音声フォーマット)に置き換わっていった。PCゲームでは「MIDICD-DA → WAVファイル」みたいな変遷があったように思う。

次に「物理仕様」としてのMIDIはどうだろうか? プロ向けの機器には今でもMIDIケーブル用の端子が付いている。付いているものの、出番は少なくなった。少なくとも今では、パソコンやタブレットDTM機器の接続でMIDIケーブルが使われることは皆無だろう。有線ならUSBで、無線ならWi-FiBluetoothで接続することが多いはずだ。MIDIケーブルが使われるのは、既存のDTM機器同士の接続だろう。

最後に「論理仕様」としてのMIDIだが、こちらはまだまだ現役である。「物理仕様」はUSB・Wi-FiBluetoothに置き換わっても、その中を流れる論理的なデータはMIDIメッセージだ。というかUSB-MIDI*4・RTP-MIDI*5・BLE-MIDI*6といった「MIDIメッセージを送受信するためのプロトコル」が制定され、利用されている。

2021年の現在、パソコンとDAWで音楽制作を完結させることが可能となって久しい。パソコンとMIDIコントローラ*7をUSBで接続し、DAWで録音する時、MIDIコントローラからDAWに送信されるのはMIDIメッセージだ。MIDIノートオン/オフに応じて鳴る音は、しかし、かつてのMIDI音源ではなく、DAWのプリセット音や、DAWのその先にあるVSTプラグインが発する音だ。パソコンの性能向上(あと内蔵ディスクの容量拡大)により、専用のハードウェアを用いずとも「パソコン上でのソフトウェア処理」だけで実用レベルで発音させることが可能となった。つまり今では「パソコン+DAW」が「音源ユニット」として振る舞うのだが、MIDIコントローラのような「音源ユニットを外部から制御する装置」との間の通信では、今でもMIDIメッセージが使用されている。

最近では「鍵盤ユニット」側が「MIDIコントローラ」のような専用ハードウェアではないケースもある。ローランドやヤマハから楽器と連携するAndroid/iOSアプリが複数リリースされているが、そのうち何割かは、おそらく内部でMIDIメッセージを併用した通信を行っているはずだ。USB・Wi-FiBluetoothと、楽器との接続方法が複数あり、それぞれ独自のプロトコルを開発・実装するのは辛いから、透過的にMIDIメッセージを送受信できる既存のプロトコルを用いて「MIDIメッセージのやりとり」で完結させよう――という発想は的外れではないはずだ。

そんな訳で、MIDIの「物理仕様」の側面や、MIDI音源というハードウェアが絡んだ「音楽ファイル」の側面は廃れたものの、「論理仕様」であるMIDIメッセージはまだ生きている。とはいえ約40年前の代物で、現在では色々と厳しい――というのがMIDI 2.0の仕様策定に繋がっている。まあ、今のところすぐさま廃れてしまうような兆候はなさそうだ。

*1:どちらも音源チップ。MIDI音源としても機能した。YMF715EのMIDIFM音源の音だった。YMF744-BのMIDIはピアノの音がすごく良かった記憶がある。

*2:ちなみに「31.25kbps」は「1MHzの32分周=31.25kHz」からきているようだ。

*3:なお後に「ソフトウェアMIDI音源」という「専用ハードウェアじゃなくてCPU使ってMIDIの音を鳴らす」という手法も出てきた。ローランドのVSC-88やヤマハXG WDM SoftSynthesizerあたりが界隈ではよく知られていたと思う。

*4:ヤマハのUX-16のようなUSB-MIDI変換ケーブル(変換ボックス)ではなくて、USBを使ってMIDIメッセージを送受信するためのデバイスクラスのこと。USBオーディオクラスのサブクラスとして定義されている。

*5:TCP/IP上でMIDIメッセージを送受信するプロトコル

*6:Bluetooth LEを使用してMIDIメッセージを送受信するためのプロファイル。

*7:キーボードのような形状だが、音源を持たない(だから単体では音を鳴らせない)機器。