ミディ

MIDI/ M ɪ D I / ;の略楽器デジタルインタフェース)は、技術標準について説明した通信プロトコルデジタルインタフェース、及び電気コネクタの様々な接続、電子楽器コンピュータ、および関連するオーディオデバイス音楽の再生、編集、録音用。[1]と題した論文で仕様が発信ユニバーサル・シンセサイザー・インターフェースによって公開され、デイブ・スミス、その後のとチェットウッド、Sequential Circuits、1981年10月にニューヨーク市で開催されたAudio EngineeringSocietyカンファレンスで。[2]

MIDI製造業者協会のMIDIロゴ
MIDI形式で作成された音楽の例
単一のコントローラーを共有する複数のラックマウントシンセサイザー
MIDIを使用すると、1つのコントローラー(ここに示すように、多くの場合、音楽キーボード)で複数の電子楽器を演奏できるため、ステージセットアップの移植性と柔軟性が向上します。このシステムは1つのラックケースに収まりますが、MIDIが登場する前は、4つの別々のフルサイズのキーボード楽器に加えて、アウトボードのミキシングおよび エフェクトユニットが必要でした。

MIDIケーブルを介した単一のMIDIリンクは、最大16チャンネルの情報を伝送でき、各チャンネルを個別のデバイスまたは楽器にルーティングできます。たとえば、これは16の異なるデジタル機器である可能性があります。MIDIはイベントメッセージを伝送します。音符の表記ピッチベロシティ(通常は音量の大きさまたは小ささとして聞こえます)を含む、音楽の指示を指定するデータ。ビブラート; ステレオの右または左にパンします。およびクロック信号テンポを設定します)。ミュージシャンがMIDI楽器を演奏すると、キーの押下、ボタンの押下、ノブの回転、スライダーの変更がすべてMIDIデータに変換されます。一つの一般的なMIDIアプリケーションは、MIDI再生することで、キーボードまたは他のコントローラとデジタルトリガするためにそれを使用する音源観客聞こえにより生成される音、生成する(合成楽音を含有する)キーボードアンプ。MIDIデータは、MIDIまたはUSBケーブルを介して転送したり、シーケンサーまたはデジタルオーディオワークステーションに録音して編集または再生したりできます。[3]4

データを保存および交換するファイル形式も定義されています。MIDIの利点には、ファイルサイズが小さいこと、変更と操作が簡単であること、電子楽器とシンセサイザーまたはデジタルサンプリングされたサウンドの幅広い選択肢が含まれます[4]キーボードでの演奏のMIDI録音は、ピアノや他の鍵盤楽器のように聞こえる可能性があります。ただし、MIDIは特定のサウンドではなく、ノートに関するメッセージと情報を録音するため、この録音は、合成またはサンプリングされたギターやフルートからフルオーケストラに至るまで、他の多くのサウンドに変更できます。MIDI録音は、マイクを使用して作成されたサウンド録音のように、オーディオ信号ではありません。

MIDIが開発される前は、さまざまなメーカーの電子楽器は一般に相互に通信できませんでした。これは、ミュージシャンが、たとえば、ローランドのキーボードをヤマハのシンセサイザーモジュールに接続できないことを意味しました。MIDIを使用すると、MIDI互換のキーボード(または他のコントローラーデバイス)を、他のMIDI互換のシーケンサー、サウンドモジュール、ドラムマシン、シンセサイザー、またはコンピューターに接続できます。

MIDIテクノロジーは、1983年に音楽業界の代表者のパネルによって標準化され、MIDI製造業者協会(MMA)によって維持されています。すべての公式MIDI規格は、ロサンゼルスのMMAと、東京の音楽電子事業協会(AMEI)のMIDI委員会によって共同で開発および公開されています。2016年、MMAは、MIDIを使用して作業、再生、または作成する人々のグローバルコミュニティをサポートするために、MIDIアソシエーション(TMA)を設立しました。[5]

1980年代初頭には、さまざまな会社によって製造された電子楽器を同期させる標準化された手段はありませんでした。[6]メーカーには、CV /ゲートDIN同期デジタル制御バス(DCB)などの機器を同期するための独自の標準がありました。[7]ローランドの創設者である梯郁太郎は、標準化の欠如が電子音楽業界の成長を制限していると感じていました。[7] 1981年6月に、彼は標準の開発、提案オーバーハイムの創設者トム・オーバーハイム、[6]彼の独自のインターフェース、オーバーハイムシステムを開発していました。[8]

掛橋氏は、オーバーハイムシステムが煩雑すぎると感じ、シーケンシャルサーキットの社長であるデイブスミス氏に、よりシンプルで安価な代替品の作成について話しました。[8]スミスはアメリカの会社とその概念について話し合ったが、掛橋は日本の会社のヤマハ、コルグ、カワイと話し合った。[6] 10月には、すべての企業の代表者が集まり、アイデアについて話し合いました。[6]当初は、シーケンシャルサーキットと日本企業のみが関心を持っていました。[9]

MIDIの作成者の1人であるDaveSmith(右)

RolandのDCBをベースとして使用して、[7] SmithとSequentialCircuitsのエンジニアであるChetWoodは、異なるメーカーの機器間の通信を可能にするユニバーサルインターフェイスを考案しました。SmithとWoodは、1981年10月のAudio EngineeringSocietyショーでの論文UniversalSynthesizer Interface [10]でこの規格を提案しました。[2] [11]4規格は、Roland、Yamaha、Korg、河合、シーケンシャルサーキット。[12] [13] 20かけはしは名前ユニバーサル・ミュージカル・インタフェース(UMI)を支持し、発音します-私は[8]が、スミスは、これは「少し感傷的」だと感じました。[14]しかし、彼は「シンセサイザー」の代わりに「楽器」を使用するのが好きで、楽器デジタルインターフェース(MIDI)という名前を提案しました。[14] [11]4 MoogMusicの創設者であるRobertMoogは、1982年10月号のKeyboardでMIDIを発表しました。[15]276

1983年の冬のNAMMショーで、スミスはProphet600とRolandJP-6シンセサイザー間のMIDI接続をデモンストレーションしました。MIDI仕様は1983年8月に公開されました。[6] MIDI規格は、2013年に技術グラミー賞を受賞したKakehashiとSmithによって発表されました。[16] [17] [18] 1982年に、最初の楽器がMIDI、Roland Jupiter-6、およびProphet 600でリリースされました。1983年に、最初のMIDIドラムマシンであるRoland TR-909、[19] [20 ]と最初のMIDIシーケンサーであるRolandMSQ-700がリリースされました。[21] MIDIをサポートする最初のコンピューターであるNECPC -88およびPC-98は、1982年にリリースされました。[22]

MIDI製造業者協会(MMA)は、1984年にシカゴで開催された夏のNAMMショーでの「すべての関心のある企業」の会議に続いて設立されました。MIDI 1.0詳細仕様は、1985年夏のNAMMショーでのMMAの2回目の会議で公開されました。この規格は進化を続け、1991年に標準化された曲ファイル(General MIDI)が追加され、USBやFireWireなどの新しい接続規格に適合しました。2016年には、標準を引き続き監督するためにMIDIアソシエーションが結成されました。[9] 2.0標準を作成するイニシアチブは、2019年1月に発表されました。[23] MIDI 2.0標準は、2020 WinterNAMMショーで紹介されました。[24]

MIDIの魅力はもともと、ポピュラー音楽の制作に電子楽器を使用したいと考えていたプロのミュージシャンやレコードプロデューサーに限られていました。この規格により、さまざまな楽器が相互に通信したり、コンピューターと通信したりできるようになり、電子楽器や音楽ソフトウェアの販売と生産が急速に拡大しました。[13]21この相互運用性により、あるデバイスを別のデバイスから制御できるようになり、必要なハードウェアミュージシャンの数が減りました。[25] MIDIの導入は、パーソナルコンピュータ時代の幕開けとサンプラーおよびデジタルシンセサイザーの導入と同時に行われました。[26] MIDIテクノロジーによってもたらされた創造的な可能性は、1980年代の音楽産業の復活を支援したことで評価されています。[27]

MIDIは、多くのミュージシャンの働き方を変える機能を導入しました。MIDIシーケンスを使用すると、記譜スキルのないユーザーでも複雑なアレンジを作成できます。[28]それぞれが複数のMIDI対応デバイスを操作する、わずか1人または2人のメンバーによる音楽行為は、より多くのミュージシャンのグループと同様のパフォーマンスを提供できます。[29]プロジェクトのために外部のミュージシャンを雇う費用を削減または排除することができます。[3]7複雑な制作は、キーボードとシーケンサーが統合されたシンセサイザーと同じくらい小さいシステムで実現できます。

MIDIは、ホームレコーディングの確立にも役立ちました。アーティストは、家庭環境でプリプロダクションを行うことにより、部分的に完成した曲を持ってレコーディングスタジオに到着することでレコーディングコストを削減できます。[3]7–8

機器制御

MIDIは、電子楽器またはデジタル楽器が相互に通信できるように、また1つの楽器が別の楽器を制御できるようにするために発明されました。たとえば、MIDI互換のシーケンサーは、ドラムサウンドモジュールによって生成されたビートをトリガーできます。デジタルコンポーネントを持たず、MIDIの開発前に構築されたアナログシンセサイザーは、MIDIメッセージをアナログ制御電圧に変換するキットを後付けすることができます。[15]277 MIDI楽器でノートを演奏すると、別の楽器でノートをトリガーするために使用できるデジタルMIDIメッセージが生成されます。[3]20リモートコントロール機能により、フルサイズの楽器をより小さなサウンドモジュールに置き換えることができ、ミュージシャンは楽器を組み合わせてより豊かなサウンドを実現したり、アコースティックピアノや弦楽器などの合成楽器サウンドの組み合わせを作成したりできます。 。[30] MIDIを使用すると、他の楽器パラメーター(ボリューム、エフェクトなど)をリモートで制御することもできます。

シンセサイザーとサンプラーには、電子音またはデジタル音を形成するためのさまざまなツールが含まれています。フィルターは音色を調整し、エンベロープはノートがトリガーされた後、時間の経過とともにサウンドが進化する方法を自動化します。[31]フィルターの周波数とエンベロープアタック(サウンドが最大レベルに達するまでにかかる時間)は、シンセサイザーパラメーターの例であり、MIDIを介してリモートで制御できます。エフェクトデバイスには、ディレイフィードバックやリバーブタイムなどのさまざまなパラメーターがあります。MIDI連続コントローラー番号(CCN)がこれらのパラメーターの1つに割り当てられると、デバイスは、その番号で識別される受信したメッセージに応答します。ノブ、スイッチ、ペダルなどのコントロールを使用して、これらのメッセージを送信できます。調整されたパラメータのセットは、パッチとしてデバイスの内部メモリに保存でき、これらのパッチは、MIDIプログラムの変更によってリモートで選択できます。[a] [32]

組成

MIDIイベントは、コンピューターソフトウェアを使用して、または専用のハードウェアミュージックワークステーションでシーケンスできます。多くのデジタルオーディオワークステーション(DAW)は、MIDIを不可欠なコンポーネントとして使用するように特別に設計されています。MIDIピアノロールは多くのDAWで開発されているため、録音されたMIDIメッセージを簡単に変更できます。[33]これらのツールを使用すると、作曲家は、マルチトラックレコーディングなどの古いソリューションよりもはるかに迅速かつ効率的に作品を試聴および編集できます。

MIDIはサウンドを作成するコマンドのセットであるため、MIDIシーケンスは、事前に録音されたオーディオでは不可能な方法で操作できます。MIDIアレンジメントのキー、インストゥルメンテーション、またはテンポを変更して[34]227、個々のセクションを並べ替えることができます。[35]アイデアを作成し、それらが再生されるのをすばやく聞く機能により、作曲家は実験することができます。[36]175 アルゴリズム作曲プログラムは、曲のアイデアや伴奏として使用できるコンピューター生成のパフォーマンスを提供します。[3]122

一部の作曲家は、MIDI1.0およびGeneralMIDI(GM)の標準のポータブルなコマンドとパラメーターのセットを利用して、さまざまな電子楽器間で音楽データファイルを共有する場合があります。シーケンスされたMIDI録音を介して作成されたデータは、標準MIDIファイル(SMF)として保存し、デジタル配信して、同じMIDI、GM、およびSMF標準に準拠する任意のコンピューターまたは電子楽器で再生できます。MIDIデータファイルは、対応する録音されたオーディオファイルよりもはるかに小さいです。

コンピューターで使用する

パソコン市場は、MIDIが登場すると同時に、安定化、およびコンピュータは、音楽制作のための実行可能な選択肢となりました。[15]324 1983年、コンピューターは主流の音楽制作で役割を果たし始めました。[37] 1983年にMIDI仕様が承認された直後の数年間、MIDI機能はいくつかの初期のコンピュータープラットフォームに適応されました。NECのPC-88とPC-98は、初期の1982年のようにMIDIをサポートしている始めた[22]ヤマハCX5Mは、 MIDIのサポートや導入シーケンシングをしてMSXの1984年にシステム[38]

パーソナルコンピュータでのMIDIの普及は、1984年にリリースされたローランドコーポレーションのMPU-401によって大幅に促進されました。これは、MIDIサウンド処理[39]とシーケンスが可能な最初のMIDI搭載PCサウンドカードです。[40] [41] RolandがMPUサウンドチップを他のサウンドカードメーカーに販売した後[39]、ユニバーサルスタンダードのMIDI-to-PCインターフェースを確立しました。[42] MIDIの普及により、コンピューターベースのMIDIソフトウェアが開発されました。[37]その後すぐに、Apple II Plus、IIeとMacintosh、Commodore 64とAmiga、Atari ST、Acorn Archimedes、PC DOSなど、多くのプラットフォームがMIDIのサポートを開始しました。[15]325–7

Macintoshは、競争力のある価格で販売されていたため、米国のミュージシャンの間で人気があり、PCシステムがその効率とグラフィカルインターフェイスに追いつくまでに数年かかりました。Macintoshがより高価だったヨーロッパではAtariSTが好まれました。Atari STには、コンピューターに直接組み込まれているMIDIポートの利点がありました。MIDIの最初の10年間のほとんどの音楽ソフトウェアは、AppleまたはAtariのいずれか用に公開されました。時点でのWindows 3.0の1990年リリース、PCは処理能力に巻き込まれていたし、グラフィカルなインターフェイスを取得し、ソフトウェアタイトルが複数のプラットフォーム上でのリリースを見始めていました。[15]324–335

2015年、Retro InnovationsはコモドールVIC-20用の最初のMIDIインターフェースをリリースし、コンピューターの4つのボイスを電子ミュージシャンやレトロコンピューティング愛好家が初めて利用できるようにしました。[43] Retro Innovationsは、Tandy ColorComputerおよびDragonコンピューター用のMIDIインターフェースカートリッジも製造しています。[44]

チップチューンのミュージシャンは、レトロゲームコンソールを使用して、MIDIインターフェイスを使用して音楽を作曲、制作、演奏します。カスタムインターフェイスは、Famicom、[45] Nintendo Entertainment System(NES)、Nintendo Gameboy [46]、Gameboy Advance、[47] Sega Megadrive、SegaGenesisで利用できます。[48]

コンピューターファイル

"> メディアを再生する
MIDIファイルには、Synthesiaなどのピアノトレーニングソフトウェアを使用して視覚化できる、各指のストライキなどの各サウンドイベントが含まれています 。
標準ファイル

スタンダードMIDIファイルSMFは)あるファイル形式の音楽配列は、保存されて輸送され、他のシステムで開くことにするために標準化された方法を提供します。この規格はMMAによって開発および維持されており、通常は.mid拡張機能を使用します。[49]これらのファイルのコンパクトなサイズは、コンピューター、携帯電話の着信音、Webページのオーサリング、音楽のグリーティングカードで広く使用されるようになりました。これらのファイルは普遍的な使用を目的としており、音価、タイミング、トラック名などの情報が含まれています。歌詞はメタデータとして含まれている場合があり、カラオケマシンで表示できます。[50]

SMFは、ソフトウェアシーケンサーまたはハードウェアワークステーションのエクスポート形式として作成されます。MIDIメッセージを1つ以上の並列トラックに編成し、イベントにタイムスタンプを付けて、順番に再生できるようにします。ヘッダは、配置のトラック数、テンポ三のSMF形式ファイル用途の指標を含んでいます。タイプ0ファイルには、単一のトラックにマージされたパフォーマンス全体が含まれますが、タイプ1ファイルには、同期的に実行される任意の数のトラックが含まれる場合があります。タイプ2ファイルはめったに使用されず[51]、複数のアレンジメントを保存します。各アレンジメントには独自のトラックがあり、順番に再生することを目的としています。

RMIDファイル

Microsoft Windowsは、拡張子が付いたRMIDファイルとして、SMFをダウンロード可能なサウンド(DLS)と一緒にResource Interchange File Format(RIFF)ラッパーにバンドルします.rmi。RIFF-RMIDは非推奨になり、Extensible Music Files(XMF)が採用されました。[52]

MIDIファイルはオーディオ録音ではありません。むしろ、それは、たとえばピッチやテンポの一連の命令であり、同等の録音されたオーディオよりも1000分の1のディスク容量しか使用できません。[53] [54]これにより、ブロードバンドインターネットアクセスと数ギガバイトのハードドライブが登場する前は、MIDIファイルの配置が音楽を共有する魅力的な方法になりました。フロッピーディスク上のライセンスされたMIDIファイルは、1990年代にヨーロッパと日本の店舗で一般的に入手可能でした。[55]これの主な欠点は、ユーザーのオーディオカードの品質と、MIDIデータがシンセサイザーとしてのみ参照するサンプルまたは合成サウンドとしてカードに含まれる実際のオーディオの品質に大きなばらつきがあることです。高品質サンプリングした音が含まれていてもサウンドカードが別のサンプリングされた機器からの一貫性のない品質、持つことができる[53]のような初期の予算価格カード、AdLibでとサウンドブラスターとその互換機を、の機能縮小版を使用ヤマハの周波数変調合成(FM合成)技術[56]は、低品質のデジタル-アナログコンバーターを介して再生されました。これらのユビキタス[56]カードの忠実度の低い複製[53]は、何らかの形でMIDI自体の特性であると想定されることがよくありました。これにより、MIDIは低品質のオーディオとして認識されましたが、実際にはMIDI自体にはサウンドが含まれておらず[57]、その再生の品質はサウンド生成デバイスの品質に完全に依存します。[34]227

ソフトウェア

MIDIシステムにおけるパーソナルコンピュータの主な利点は、ロードされているソフトウェアに応じて、さまざまな目的に使用できることです。[3]55 マルチタスクにより、相互にデータを共有できる可能性のあるプログラムを同時に操作できます。[3]65

シーケンサー

シーケンスソフトウェアを使用すると、録音したMIDIデータを、カット、コピー、貼り付け、ドラッグアンドドロップなどの標準的なコンピューター編集機能を使用して操作できます。キーボードショートカットを使用してワークフローを合理化できます。一部のシステムでは、編集機能がMIDIイベントによって呼び出される場合があります。シーケンサーを使用すると、各チャンネルを設定して異なるサウンドを再生し、アレンジの概要をグラフィカルに表示できます。ミュージシャン向けの印刷パーツを作成するために使用できる記譜ディスプレイやスコアライターなど、さまざまな編集ツールが利用可能になっています。ループ、量子化、ランダム化、転置などのツールにより、配置プロセスが簡素化されます。

ビートの作成が簡素化され、グルーブテンプレートを使用して別のトラックのリズミカルな感触を複製できます。リアルタイムコントローラーを操作することで、リアルな表現を加えることができます。ミキシングが実行でき、MIDIは録音されたオーディオおよびビデオトラックと同期できます。作業内容を保存して、異なるコンピューターやスタジオ間で転送できます。[58] [59]164–6

シーケンサーは、ユーザーがパターングリッドをクリックしてビートを作成できるドラムパターンエディター[3]118や、MIDIをテンポとキーが録音されたオーディオループと組み合わせることができるACIDProなどのループシーケンサーなどの代替形式をとることができます。互いに一致しています。キューリストシーケンスは、ステージおよび放送制作での対話、効果音、および音楽キューをトリガーするために使用されます。[3]121

記譜ソフトウェア

MIDIを使用すると、キーボードで弾いた音を自動的に転写することができる楽譜。[13]213 スコアライティングソフトウェアは通常、高度なシーケンスツールを欠いており、ライブの楽器奏者向けに設計された、きちんとしたプロフェッショナルなプリントアウトを作成するために最適化されています。[59]157これらのプログラムは、ダイナミクスと表現のマーキング、コードと歌詞の表示、および複雑なスコアスタイルのサポートを提供します。[59]点字でスコアを印刷できる167のソフトウェアが利用可能です。[60]

記譜プログラムには、Finale、Encore、Sibelius、MuseScore、Doricoが含まれます。SmartScoreソフトウェアは、スキャンした楽譜からMIDIファイルを生成できます。[61]

編集者/司書

パッチエディタを使用すると、ユーザーはコンピュータインターフェイスを介して機器をプログラムできます。これらは、数千のプログラム可能なパラメーターを含むが、15個の小さなボタン、4個のノブ、および小さなLCDで構成されるインターフェースを備えたYamaha FS1R [62]などの複雑なシンセサイザーの登場とともに不可欠になりました。[63]デジタル楽器は通常、スイッチやノブが提供するフィードバックや直接制御がないため、ユーザーが実験することを思いとどまらせます[64]393が、パッチエディターはハードウェア楽器やエフェクトデバイスの所有者に同じ編集機能を提供します。ソフトウェアシンセサイザーのユーザーが利用できます。[65]一部のエディターは特定の楽器またはエフェクトデバイス用に設計されていますが、他のユニバーサルエディターはさまざまな機器をサポートしており、理想的にはシステムエクスクルーシブメッセージを使用してセットアップ内のすべてのデバイスのパラメーターを制御できます。[3]129

パッチライブラリアンは、機器のコレクション内のサウンドを整理する特殊な機能を備えており、楽器とコンピューターの間でサウンドのバンク全体を送信できます。これにより、ユーザーはデバイスの限られたパッチストレージをコンピューターのはるかに大きなディスク容量[3]133で拡張し、同じ機器の他の所有者とカスタムパッチを共有できます。[66] 2つの機能を組み合わせたユニバーサルエディター/ライブラリアンはかつて一般的であり、OpcodeSystemsのGalaxyとeMagicのSoundDiverが含まれていました。これらのプログラムは、Mark of the Unicorn(MOTU)のUnisynおよびSoundQuestのMidiQuestは引き続き利用可能ですが、コンピューターベースの合成への傾向によりほとんど放棄されています。NativeInstrumentsのKoreは、エディター/ライブラリアンのコンセプトをソフトウェアインストゥルメントの時代に持ち込むための取り組みでした。[67]

自動伴奏プログラム

伴奏トラックを動的に生成できるプログラムは、「自動伴奏」プログラムと呼ばれます。これらは、ユーザーが選択したスタイルでフルバンドアレンジメントを作成し、その結果をMIDIサウンド生成デバイスに送信して再生します。生成されたトラックは、教育ツールまたは練習ツールとして、ライブパフォーマンスの伴奏として、または作詞作曲の補助として使用できます。[68]42

合成とサンプリング

コンピューターはソフトウェアを使用して音を生成し、それをデジタル-アナログコンバーター(DAC)を介してパワーアンプとラウドスピーカーシステムに渡すことができます。[13]213同時に再生できるサウンドの数(ポリフォニー)は、コンピューターのCPUの能力に依存します。また、再生のサンプルレートとビット深度は、サウンドの品質に直接影響します。[69]ソフトウェアに実装されたシンセサイザーは、ハードウェア機器には存在しないタイミングの問題の影響を受けます。ハードウェア機器の専用オペレーティングシステムは、デスクトップオペレーティングシステムのようにバックグラウンドタスクによる中断の影響を受けません。これらのタイミングの問題により、同期の問題が発生したり、サンプルの再生が中断されたときにクリックやポップが発生したりする可能性があります。ソフトウェアシンセサイザーは、コンピューターが再生を遅らせ、MIDIタイミングを乱すオーディオバッファーを使用するため、サウンド生成のレイテンシーと呼ばれる顕著な遅延も示します。[70]

ソフトウェア合成ときのルーツは、1950年代限り戻っマックス・マシューズのベル研究所が書いたMUSIC-Nの非リアルタイム音声生成することができたプログラミング言語を、。[71]ホストコンピューターのCPUで直接実行された最初のシンセサイザー[72]は、DaveSmithのSeerSystemsによるRealityでした。これは、緊密なドライバー統合によって低レイテンシーを実現したため、CreativeLabsサウンドカードでのみ実行できました。[73]シンボリックサウンドコーポレーションのKymaシステム[71]やレコーディングスタジオ全体に電力を供給するCreamware / Sonic Core Pulsar / SCOPEシステム[74]のように、一部のシステムは専用ハードウェアを使用してホストCPUの負荷を軽減します。楽器、エフェクトユニット、ミキサーの価値。[75]

完全にコンピュータソフトウェアで完全なMIDIアレンジメントを構築する機能により、作曲家は最終的な結果をオーディオファイルとして直接レンダリングできます。[30]

ゲームミュージック

初期のPCゲームはフロッピーディスクで配布され、MIDIファイルのサイズが小さいため、サウンドトラックを提供するための実行可能な手段になりました。DOSおよび初期のWindows時代のゲームでは、通常、AdLibまたはSoundBlasterオーディオカードとの互換性が必要でした。これらのカードは、正弦波の変調によって音を生成するFMシンセシスを使用していました。この技術のパイオニアであるジョン・チャウニングは、十分な正弦波を使用すれば、この技術であらゆる音を正確に再現できると理論付けましたが、手頃な価格のコンピューターオーディオカードは、2つの正弦波のみでFMシンセシスを実行しました。カードの8ビットオーディオと組み合わせると、「人工」[76]および「プリミティブ」と呼ばれるサウンドになりました。[77]

後で利用可能になったウェーブテーブルドーターボードは、FMサウンドの代わりに使用できるオーディオサンプルを提供しました。これらは高価でしたが、E-muProteusなどの尊敬されているMIDI楽器のサウンドを使用することがよくありました。[77]コンピュータ業界は、1990年代半ばに、16ビット再生のウェーブテーブルベースのサウンドカードに移行しましたが、128の楽器とドラムキットの高品質のサンプルを収めるには小さすぎるスペースである2MBROMで標準化されました。一部のメーカーは12ビットのサンプルを使用し、それらを16ビットにパディングしました。[78]

その他のアプリケーション

MIDIは、多くの非音楽アプリケーションの制御プロトコルとして採用されています。MIDI Show Controlは、MIDIコマンドを使用して、舞台照明システムを指示し、舞台作品でキューイベントをトリガーします。VJとターンテーブリストはこれを使用してクリップをキューに入れ、機器を同期し、レコーディングシステムは同期と自動化に使用します。Apple Motionでは、MIDIを介してアニメーションパラメータを制御できます。1987ファーストパーソン・シューティングゲームのゲームMIDI迷路と1990アタリST のコンピュータのパズルゲーム Oxydは一緒にネットワークコンピュータにMIDIを使用、およびキットは、家庭の照明や家電製品以上のMIDIコントロールを許可が利用可能です。[79]

音楽デバイスとの関連付けにもかかわらず、MIDIは、MIDIコマンドを読み取って処理できる任意の電子デバイスまたはデジタルデバイスを制御できます。受信デバイスまたはオブジェクトにはGeneralMIDIプロセッサが必要ですが、この場合、プログラムの変更により、MIDI機器のコントローラーからのノートではなく、そのデバイスで機能がトリガーされます。各機能は、タイマー(MIDIによっても制御されます)またはデバイスの作成者によって決定された他の条件またはトリガーに設定できます。

コネクタ

MIDI1.0コネクタとMIDI1.0ケーブル

ケーブルは180°5ピンDINコネクタで終端します。標準的なアプリケーションでは、5つの導体のうち3つだけを使用します。アース線(ピン2)と、+ 5ボルトの信号を伝送する平衡導体のペア(ピン4と5)です。[80] [68] 41このコネクタ構成では、メッセージを一方向にしか伝送できないため、双方向通信には2本目のケーブルが必要です。[3] 13のようないくつかの独自のアプリケーション、ファントム電動フットスイッチコントローラは、スペアピンを使用して直流(DC)送電。[81]

光アイソレータは、MIDIデバイスをコネクタから電気的に分離し、グランドループの発生を防ぎ[82]63、電圧スパイクから機器を保護します。[15]277 MIDIにはエラー検出機能がないため、干渉を制限するために最大ケーブル長は15メートル(50フィート)に設定されています。[83]

MIDI 1.0コネクタの図で、番号が付けられたピンを示しています。標準アプリケーションでは、ピン2(グランド)と4; 5(信号の平衡ペア)のみを使用します。

ほとんどのデバイスは、入力から出力ポートにメッセージをコピーしません。ポートの第三のタイプは、ポート「スルー」、データを他の機器に転送することを可能にする、入力ポートで受信されたすべてのコピーを放出する[15] 278に「デイジーチェーン」構成。[84]すべてのデバイスにスルーポートが含まれているわけではなく、エフェクトユニットやサウンドモジュールなど、MIDIデータを生成する機能がないデバイスにはアウトポートが含まれていない場合があります。[64]384

管理デバイス

デイジーチェーン内の各デバイスは、システムに遅延を追加します。これは、ボックスの入力信号の正確なコピーを提供するいくつかの出力を含むMIDIスルーボックスで回避されます。MIDIマージャーは、複数のデバイスからの入力を1つのストリームに結合することができ、複数のコントローラーを1つのデバイスに接続することができます。MIDIスイッチャーを使用すると、複数のデバイスを切り替えることができ、ケーブルを物理的に再パッチする必要がなくなります。MIDIパッチベイは、これらすべての機能を組み合わせたものです。これらには複数の入力と出力が含まれており、入力チャネルの任意の組み合わせを出力チャネルの任意の組み合わせにルーティングできます。ルーティング設定は、コンピュータソフトウェアを使用して作成し、メモリに保存して、MIDIプログラム変更コマンドで選択できます。[3]47–50これにより、コンピューターが存在しない状況で、デバイスをスタンドアロンMIDIルーターとして機能させることができます。[3]62–3のMIDIパッチベイは、入力ステージで発生するMIDIデータビットのスキューもクリーンアップします。

MIDIデータプロセッサは、ユーティリティタスクや特殊効果に使用されます。これらには、ストリームから不要なMIDIデータを削除するMIDIフィルターや、設定された時間に入力データの繰り返しコピーを送信するMIDIディレイが含まれます。[3]51

インターフェース

コンピューターのMIDIインターフェースの主な機能は、MIDIデバイスとコンピューターの間でクロック速度を一致させることです。[84]一部のコンピュータサウンドカードには標準のMIDIコネクタが含まれていますが、その他のカードには、D-subminiature DA-15ゲームポート、USB、FireWire、イーサネット、または独自の接続など、さまざまな手段で接続されています。2000年代にUSBコネクタの使用が増加したことにより、MIDIチャネルをUSB搭載コンピュータに転送できるMIDI-to-USBデータインターフェイスが利用できるようになりました。一部のMIDIキーボードコントローラーにはUSBジャックが装備されており、音楽ソフトウェアを実行するコンピューターに接続できます。

MIDIのシリアル送信は、タイミングの問題を引き起こします。3バイトのMIDIメッセージの送信には、約1ミリ秒かかります。[85] MIDIはシリアルであるため、一度に送信できるイベントは1つだけです。イベントが2つのチャネルで同時に送信される場合、2番目のチャネルのイベントは最初のチャネルが終了するまで送信できないため、1ミリ秒遅延します。イベントがすべてのチャネルで同時に送信される場合、最後のチャネルの送信は最大16ミリ秒遅延します。これは、同じポート上の複数のチャネルではなく、複数のポート間でイベントが分散されるときにタイミングが向上するため、複数の入力ポートと出力ポートを備えたMIDIインターフェイスの台頭に貢献しました。[70]「MIDIスロップ」という用語は、MIDI送信が遅延したときに発生する可聴タイミングエラーを指します。[86]

コントローラー

2オクターブのMIDIコントローラーは、携帯性に優れているため、ラップトップコンピューターでの使用に人気があります。このユニットは、コンピューターベースまたはスタンドアロンのハードウェア楽器、エフェクト、ミキサー、録音デバイスのさまざまなサウンドデザインパラメーターを操作できるさまざまなリアルタイムコントローラーを提供します。

MIDIコントローラーには2つのタイプがあります。ノートを生成して音楽を演奏するために使用されるパフォーマンスコントローラー[87]と、ノートを送信しないが他のタイプのリアルタイムイベントを送信するコントローラーです。多くのデバイスは、2つのタイプの組み合わせです。

キーボードは、これまでで最も一般的なタイプのMIDIコントローラーです。[66] MIDIはキーボードを念頭に置いて設計されており、キーボード以外のコントローラーは「代替」コントローラーと見なされます。[88]これは、キーボードベースの音楽に興味のない作曲家による制限と見なされていましたが、標準は柔軟であることが証明され、MIDI互換性は、ギター、弦楽器、管楽器、ドラム、特殊楽器などの他のタイプのコントローラーに導入されました。実験的なコントローラー。[13]23他のコントローラーには、ドラムキットと管楽器の演奏をそれぞれエミュレートできるドラムコントローラーとウィンドコントローラーが含まれます。それにもかかわらず、MIDIが設計されたキーボード演奏の一部の機能は、他の楽器の機能を完全にはキャプチャしていません。Jaron Lanierは、表現できるものを予期せず制限した技術的な「ロックイン」の例として、この標準を引用しています。[89]ノートごとのピッチベンドなど、これらの機能の一部は、以下で説明するMIDI2.0で対処する必要があります。

ソフトウェアシンセサイザーは優れたパワーと汎用性を提供しますが、一部のプレーヤーは、MIDIキーボードとコンピューターのキーボードおよびマウスの間の注意の分割が、演奏体験からの即時性の一部を奪うと感じています。[90]リアルタイムMIDIコントロール専用のデバイスは人間工学的な利点を提供し、マウスやプッシュボタンのデジタルメニューからアクセスするインターフェースよりも楽器との接続感を高めることができます。コントローラは、さまざまな機器で動作するように設計された汎用デバイスの場合もあれば、特定のソフトウェアで動作するように設計されている場合もあります。後者の例には、Ableton Live用のAkaiのAPC40コントローラー、およびMS-20アナログシンセサイザーの複製であるKorgのMS-20icコントローラーが含まれます。MS-20icコントローラーには、MS-20シンセサイザーの仮想再生で信号ルーティングを制御するために使用できるパッチケーブルが含まれています。また、サードパーティのデバイスを制御することもできます。[91]

楽器

サウンド・モジュールのサウンドをトリガーするために外部コントローラ(例えば、MIDIキーボード)が必要です。これらのデバイスは非常にポータブルですが、プログラミングインターフェイスが限られているため、サウンドパラメータに快適にアクセスするにはコンピュータベースのツールが必要です。

MIDIインストゥルメントには、MIDI信号を送受信するためのポート、それらの信号を処理するためのCPU、ユーザープログラミングを可能にするインターフェイス、サウンドを生成するためのオーディオ回路、およびコントローラーが含まれています。オペレーティングシステムと工場出荷時のサウンドは、多くの場合、読み取り専用メモリ(ROM)ユニットに保存されます。[3]67–70

MIDIインストゥルメントは、General MIDIサウンドボード(GM、GS、XG)で構成されるスタンドアロンモジュール(ピアノスタイルのキーボードなし)、転置/ピッチの変更、MIDIインストゥルメントの変更、音量、パン、リバーブレベルおよびその他のMIDIコントローラー。通常、MIDIモジュールには大画面が含まれているため、ユーザーは現在選択されている機能の情報を表示できます。機能には、通常MIDIファイルまたはカラオケMIDIに埋め込まれている歌詞のスクロール、プレイリスト、曲のライブラリ、編集画面などがあります。一部のMIDIモジュールには、ハーモナイザーと、MP3オーディオファイルを再生およびトランスポーズする機能が含まれています。

シンセサイザー

シンセサイザーは、さまざまなサウンド生成技術のいずれかを採用することができます。それらは、統合されたキーボードを含む場合もあれば、MIDIキーボードなどの外部コントローラーによってトリガーされたときにサウンドを生成する「サウンドモジュール」または「エクスパンダー」として存在する場合もあります。サウンドモジュールは通常、19インチラックに取り付けるように設計されています。[3]70–72メーカーは通常、スタンドアロンバージョンとラックマウントバージョンの両方でシンセサイザーを製造しており、さまざまなサイズのキーボードバージョンを提供していることがよくあります。

サンプラー

サンプラーは記録し、デジタイズオーディオ、それを保存することができ、ランダム・アクセス・メモリ(RAM)、およびそれを再生します。サンプラーを使用すると、通常、ユーザーはサンプルを編集してハードディスクに保存し、エフェクトを適用して、シンセサイザーが使用するのと同じツールでシェイプすることができます。また、キーボードまたはラックマウント形式のいずれかで入手できます。[3] 74から8つのサンプルの再生を通して音を発生させるが、ない録画機能を持っていない楽器は、「として知られているROMplers」。

サンプラーは、当時のメモリと処理能力の費用のために、シンセサイザーほど迅速に実行可能なMIDI機器として確立されることはありませんでした。[15]295最初の低コストMIDIサンプラーは1984年に導入されたEnsoniq Mirageでした。[15]304 MIDIサンプラーは通常、サンプリングされた波形を編集するには小さすぎるディスプレイによって制限されますが、一部は接続できますコンピューターモニター。[15]305

ドラムマシン

ドラムマシンは通常、ドラムとパーカッションのサウンドに特化したサンプル再生デバイスです。通常、ドラムパターンを作成し、曲にアレンジできるシーケンサーが含まれています。多くの場合、複数のオーディオ出力があるため、各サウンドまたはサウンドのグループを個別の出力にルーティングできます。個々のドラムボイスは、別のMIDI楽器またはシーケンサーから再生できます。[3]84

ワークステーションとハードウェアシーケンサー

ヤマハの Tenori-onコントローラーを使用すると、点灯しているボタンの配列を「描画」することで配置を構築できます。結果として得られるアレンジメントは、内部サウンドまたは外部音源を使用して再生したり、コンピューターベースのシーケンサーで録音したりできます。

シーケンサーテクノロジーはMIDIよりも前のものです。アナログシーケンサーは、CV / Gate信号を使用してプレMIDIアナログシンセサイザーを制御します。MIDIシーケンサーは通常、テープデッキのトランスポート機能をモデルにしたトランスポート機能によって操作されます。MIDIパフォーマンスを録音し、マルチトラック録音の概念に沿って個々のトラックに配置することができます。ミュージックワークステーションは、コントローラーキーボードと内部サウンドジェネレーターおよびシーケンサーを組み合わせたものです。これらは、完全なアレンジメントを構築し、独自の内部サウンドを使用して再生するために使用でき、自己完結型の音楽制作スタジオとして機能します。通常、ファイルの保存機能と転送機能が含まれています。[3]103–4

エフェクトデバイス

一部のエフェクトユニットは、MIDIを介してリモートコントロールできます。たとえば、Eventide H3000ウルトラハーモナイザーは、シンセサイザーとして再生できるほど広範なMIDIコントロールを可能にします。[15] 322ザ・ドラムバディ、ペダル形式のドラムマシンは、それが、そのテンポはと同期していることができるように、MIDI接続を有するルーパペダルや遅延などの時間ベースの効果。

MIDIメッセージは、31.25 kbit / sの速度でシリアルに送信される8ビットワード(一般にバイトと呼ばれます)で構成されてい ます。このレートが選択されたのは、多くの初期のマイクロプロセッサの動作速度である1MHzの正確な分割であるためです。[15]286各ワードの最初のビットは、ワードがステータスバイトであるかデータバイトであるかを識別し、その後に7ビットの情報が続きます。[3]13–14フレーミングの目的で各バイトにスタートビットとストップビットが追加されるため、MIDIバイトの送信には10ビットが必要です。[15]286

MIDIリンクは、16の独立した情報チャネルを伝送できます。チャネルには1〜16の番号が付けられていますが、実際に対応するバイナリエンコーディングは0〜15です。デバイスは、特定のチャネルのみをリッスンし、他のチャネルで送信されたメッセージを無視するように構成できます(「オムニオフ」モード)。または、チャネルアドレスを事実上無視してすべてのチャネルをリッスンするように構成できます(「オムニオン」)。個々のデバイスは、モノフォニック(新しい「ノートオン」MIDIコマンドの開始は前のノートの終了を意味します)、またはポリフォニック(楽器のポリフォニー制限に達するまで、複数のノートが同時に鳴る場合があります)、またはノートが減衰エンベロープの終わりに到達するか、明示的な「ノートオフ」MIDIコマンドが受信されます)。受信デバイスは通常、「オムニオフ/オン」モードと「モノラル/ポリ」モードの4つの組み合わせすべてに設定できます。[3]14–18

メッセージ

MIDIメッセージは、受信デバイスのある側面を制御する命令です。MIDIメッセージは、メッセージのタイプを示すステータスバイトと、それに続くパラメータを含む最大2つのデータバイトで構成されます。[34] MIDIメッセージとすることができるチャネルメッセージ16チャネルの一方のみに送信され、そのチャネル上のデバイス、またはだけ監視システムメッセージすべてのデバイスが受信すること。各受信デバイスは、その機能に関係のないデータを無視します。[64]384メッセージには、チャンネルボイス、チャンネルモード、システムコモン、システムリアルタイム、システムエクスクルーシブの5種類があります。[92]

チャネルボイスメッセージは、単一のチャネルを介してリアルタイムのパフォーマンスデータを送信します。例としては、ノートのピッチを指定するMIDIノート番号、ノートがどれだけ強く演奏されたかを示すベロシティ値、およびチャンネル番号を含む「ノートオン」メッセージがあります。メモを終了する「メモオフ」メッセージ。デバイスのパッチを変更するプログラム変更メッセージ。機器のパラメータの調整を可能にする変更を制御します。MIDIノートは0からCに割り当てられた127に番号が付けられている-1 Gに9。この対応8.175799 12543.85にヘルツ(律及び440ヘルツA想定の範囲4)、およびAから88ノートピアノ範囲を越えて延びる0 Cまで8

システム専用メッセージ

システムエクスクルーシブ(SysEx)メッセージは、MIDI規格の柔軟性と寿命の主な理由です。メーカーはそれらを使用して、標準のMIDIメッセージよりも徹底的に機器を制御する独自のメッセージを作成します。[15] 287のSysExメッセージは、システム内の特定のデバイスにアドレス指定されます。各メーカーには、SysExメッセージに含まれる一意の識別子があります。これにより、対象のデバイスのみがメッセージに応答し、他のすべてのデバイスがメッセージを無視するようになります。多くの機器にはSysExID設定も含まれているため、コントローラーは同じモデルの2つのデバイスを個別にアドレス指定できます。[93] SysExメッセージには、MIDI標準が提供する機能を超える機能を含めることができます。これらは特定の機器を対象としており、システム上の他のすべてのデバイスによって無視されます。

実装チャート

デバイスは通常、MIDI仕様で定義されているすべてのタイプのメッセージに応答するわけではありません。MIDI実装チャートは、楽器が持つ特定の機能と、楽器がメッセージにどのように応答するかをユーザーが確認する方法として、MMAによって標準化されました。[3]231通常、特定のMIDI実装チャートは、デバイスのドキュメント内のMIDIデバイスごとに公開されます。

電気的仕様

MIDI interconnection schematic
MIDI1.0の電気的/光的相互接続の電気回路図。

電気インターフェースのMIDI1.0仕様は、完全に分離された電流ループに基づいています。MIDI出力ポートは、公称+5ボルトのソース[b]を、MIDI出力DINコネクタのピン4、受信デバイスのMIDI入力DINコネクタのピン4、220オームの保護抵抗を介して220オームの抵抗を介して供給します。光アイソレータのLED。次に、電流はMIDI入力ポートのピン5を介して発信元デバイスのMIDI出力ポートのピン5に戻り、パスに220オームの抵抗があり、公称電流は約5 ミリアンペアになります。ケーブルの外観にもかかわらず、2つのMIDIデバイス間に導電パスはなく、光学的に絶縁されたパスのみがあります。適切に設計されたMIDIデバイスは、グランドループや同様の干渉の影響を比較的受けません。このシステムのデータレートは31,250ビット/秒で、ロジック0が現在オンになっています。[94]

MIDI仕様では、ピン2に接続されたアース「ワイヤ」と編組またはフォイルシールドが提供され、ピン4と5の2つの信号伝送導体が保護されます。ただし、MIDIケーブルはピン2と編組またはフォイルを接続することになっています。シャーシアースへのシールド。MIDI出力ポートでのみ行う必要があります。MIDI入力ポートは、ピン2を接続せずに分離したままにする必要があります。[94] MIDIデバイスの一部の大手メーカーは、最大の電圧絶縁が得られるように、ピン位置1、2、および3で金属導体を意図的に省略した修正MIDIインオンリーDIN5ピンソケットを使用しています。

GM Standard Drum Map on the keyboard
特定のノートがトリガーするパーカッションサウンドを指定するGMスタンダードドラムマップ。

MIDIの柔軟性と広範な採用により、標準の多くの改良が行われ、当初の意図を超えた目的への適用が可能になりました。

General MIDI

MIDIでは、プログラム変更メッセージを介して楽器のサウンドを選択できますが、2つの楽器が特定のプログラムの場所で同じサウンドを持っているという保証はありません。[95]プログラム#0は、ある楽器のピアノでも、別の楽器のフルートでもかまいません。一般的なMIDI(GM)標準は、1991年に設立され、別で再生するときと同様の音を一つのデバイス上で作成したスタンダードMIDIファイルを可能にする標準のサウンドバンクを提供していました。GMは、8つの関連する楽器の16のファミリーに配置された128のサウンドのバンクを指定し、各楽器に特定のプログラム番号を割り当てます。打楽器はチャンネル10に配置され、特定のMIDIノート値が各打楽器音にマッピングされます。GM準拠のデバイスは、24音のポリフォニーを提供する必要があります。[96]プログラムを変更すると、GM互換の楽器で同じ楽器の音が選択されます。[97]

General MIDIは、「パッチ」と呼ばれる定義済みの楽器サウンドの標準レイアウトによって定義され、「パッチ」番号(プログラム番号– PC#)によって定義され、MIDIキーボードのキーを押すことによってトリガーされます。このレイアウトにより、MIDIサウンドモジュールやその他のMIDIデバイスは、ユーザーが期待する指定のサウンドを忠実に再現し、さまざまなメーカーのMIDIデバイス間で信頼性の高い一貫したサウンドパレットを維持します。[98]

GM規格は、ノートマッピングのばらつきを排除します。一部のメーカーは、どのノート番号がミドルCを表すかについて意見が一致していませんでしたが、GMは、ノート番号69がA440を再生し、ミドルCをノート番号60として修正することを指定しています。GM互換デバイスは、速度、アフタータッチ、ピッチベンドに応答する必要があります。 、起動時に指定されたデフォルト値に設定され、サステインペダルや登録済みパラメーター番号などの特定のコントローラー番号をサポートします。[99] GM Liteと呼ばれるGMの簡略版は、携帯電話やその他の処理能力が制限されたデバイスで使用されています。[95]

GS、XG、およびGM2

GMの128楽器のサウンドセットは十分な大きさではないという一般的な意見がすぐに形成されました。RolandのGeneralStandard (GS)システムには、追加のサウンド、ドラムキット、エフェクトが含まれ、それらにアクセスするために使用できる「バンク選択」コマンドが提供され、MIDI非登録パラメーター番号(NRPN)を使用して新しい機能にアクセスしました。ヤマハのExtendedGeneral MIDI(XG)は、1994年に続きました。XGも同様に追加のサウンド、ドラムキット、エフェクトを提供しましたが、編集にNRPNの代わりに標準コントローラーを使用し、ポリフォニーを32ボイスに増やしました。どちらの規格もGM仕様との下位互換性を備えていますが、相互には互換性がありません。[100]どちらの規格もその作成者を超えて採用されていませんが、どちらも音楽ソフトウェアのタイトルで一般的にサポートされています。

日本のAMEIのメンバー企業は1999年にGeneralMIDIレベル2仕様を開発しました。GM2はGMとの後方互換性を維持しますが、ポリフォニーを32ボイスに増やし、ソステヌートやソフトペダル(ウナコルダ)、RPN、ユニバーサルシステムエクスクルーシブなどのいくつかのコントローラー番号を標準化します。メッセージ、およびMIDIチューニング標準が組み込まれています。[101] GM2は、スケーラブルポリフォニーMIDI(SP-MIDI)の楽器選択メカニズムの基礎です。これは、デバイスのポリフォニーをその処理能力に応じてスケーリングできるようにする、低電力デバイス用のMIDIバリアントです。[95]

チューニング基準

ほとんどのMIDIシンセサイザーは、平均律のチューニングを使用します。MIDIチューニング標準1992年に批准(MTS)は、変則チューニングすることができます。[102] MTSは、最大128パッチのバンクからロードできるマイクロチューニングを可能にし、ノートピッチのリアルタイム調整を可能にします。[103]メーカーは規格をサポートする必要はありません。そうしない人は、そのすべての機能を実装する必要はありません。[102]

タイムコード

シーケンサーは内部クロックでMIDIシステムを駆動できますが、システムに複数のシーケンサーが含まれている場合、それらは共通のクロックに同期する必要があります。開発されたMIDIタイムコード(MTC)、Digidesignの、[104]実装システムエクスクルーシブメッセージ[105]タイミングの目的のために特別に開発され、およびから変換することができるされているSMPTEタイムコード規格。[15]288 MIDIクロックはテンポに基づいていますが、SMPTEタイムコードは1秒あたりのフレーム数に基づいており、テンポに依存しません。MTCは、SMPTEコードと同様に、位置情報を含み、タイミングパルスが失われた場合にそれ自体を調整できます。[106] Mark of the UnicornのMIDIタイムピースなどのMIDIインターフェースは、SMPTEコードをMTCに変換できます。[107]

機械制御

MIDI Machine Control(MMC)は、ハードウェア録音デバイスのトランスポートコントロールを操作する一連のSysExコマンド[108]で構成されています。MMCを使用すると、シーケンサーは、接続されたテープデッキまたはハードディスクレコーディングシステムにStartStop、およびRecordコマンドを送信し、シーケンサーと同じポイントで再生を開始するようにデバイスを早送りまたは巻き戻しできます。デバイスはMTCを介して同期できますが、同期データは含まれません。[109]

コントロールを表示

MIDIショーコントロールは、ユニバーサルスタジオハリウッドのウォーターワールドアトラクション などの劇場イベントの照明と効果を頭出しして同期させるために使用され ます。 [110]

MIDIショーコントロール(MSC)は、照明、音楽とサウンドの再生、モーションコントロールシステムなどのショーコントロールデバイスをシーケンス処理し、リモートでキューイングするためのSysExコマンドのセットです。[111]アプリケーションには、舞台作品、美術館の展示、レコーディングスタジオの制御システム、遊園地のアトラクションが含まれます。[110]

タイムスタンプ

MIDIタイミングの問題に対する1つの解決策は、MIDIイベントを再生する時間でマークし、事前にMIDIインターフェイスのバッファーに保存することです。事前にデータを送信することで、混雑した通路が送信リンクを圧倒する大量の情報を送信する可能性を減らすことができます。インターフェイスに保存されると、情報はUSBジッターやコンピューターのオペレーティングシステムの割り込みに関連するタイミングの問題の影響を受けなくなり、高精度で送信できます。[112] MIDIタイムスタンプは、ハードウェアとソフトウェアの両方がサポートしている場合にのみ機能します。MOTUのMTS、eMagicのAMT、およびSteinbergのMidex 8には、互いに互換性のない実装があり、ユーザーが動作するには、同じ会社によって製造されたソフトウェアとハ​​ードウェアを所有する必要がありました。[70]タイムスタンプはFireWireMIDIインターフェース、[113] Mac OS X Core Audio、およびLinuxALSAシーケンサーに組み込まれています。

サンプルダンプ標準

SysExメッセージの予期しない機能は、楽器間でオーディオサンプルを転送するための使用でした。これにより、サンプルダンプ標準(SDS)が開発され、サンプル送信用の新しいSysExフォーマットが確立されました。[15]287 SDSは、サンプル全体を送信する必要なしに、サンプルループポイントに関する情報の送信を可能にするコマンドのペアで後で拡張されました。[114]

ダウンロード可能なサウンド

ダウンロード可能なサウンド1997年に批准(DLS)仕様は、モバイル機器とコンピュータの可能サウンドカードは、ダウンロード可能なサウンドセットとそれらの波テーブルを拡大します。[115] DLSレベル2仕様は、2006年に続き、標準化されたシンセサイザーアーキテクチャを定義しました。モバイルDLS標準では、DLSバンクを自己完結型のモバイルXMFファイルとしてSP-MIDIと組み合わせることが求められています。[116]

MIDIポリフォニックエクスプレッション

MIDIポリフォニックエクスプレッション(MPE)は、MIDIを使用する方法であり、ピッチベンドやその他の表現力のあるコントロールの次元を個々のノートに合わせて継続的に調整できるようにします。[117] MPEは、特定のメッセージを各ノートに個別に適用できるように、各ノートを独自のMIDIチャンネルに割り当てることによって機能します。[118] [117]仕様は、2017年11月にAMEIによって、2018年1月にMMAによってリリースされました。[119]のような楽器連続指、Linnstrument、roliをシーボード、およびEigenharpは、ユーザーがピッチ、音色、そして和音内の個々のノートのための他のニュアンスをコントロールしましょう。[120]ますます多くのソフトシンセとエフェクトがMPE(Equator、UVI Falcon、Sandman Proなど)[121]や、いくつかのハードウェアシンセ(Modal Electronics 002やARGON8、Futuresonus Parvaなど)とも互換性があります。、およびModor NF-1)。

上に搬送された原稿31.25キロビット/秒の電流ループに加えて、5ピンのDIN、他のコネクタは、同じ電気的データのために使用されており、MIDIの送信は、上の異なる形でストリームUSB、別名1394のFireWireを、およびイーサネット(登録商標)は、今であります一般。一部のサンプラーとハードドライブレコーダーは、SCSIを介して相互にMIDIデータを渡すこともできます。

USBとFireWire

1999年にUSB-IFのメンバーは、MIDI over USBの標準である「MIDIデバイスのユニバーサルシリアルバスデバイスクラス定義」[122]を開発しました。MIDIoverUSBは、MIDI接続に使用されていた他のインターフェイス(シリアル、ジョイスティックなど)がパソコンから消えました。Linux、Microsoft Windows、Macintosh OS X、およびApple iOSオペレーティングシステムには、「MIDIデバイス用のユニバーサルシリアルバスデバイスクラス定義」を使用するデバイスをサポートするための標準クラスドライバーが含まれています。一部のメーカーは、カスタムドライバーを使用して、クラス仕様とは異なる動作をするように設計されたUSB経由のMIDIインターフェイスを実装することを選択しています。

Apple Computerは、1990年代にFireWireインターフェースを開発しました。これは、10年の終わりにかけてデジタルビデオ カメラに登場し、1999年にG3Macintoshモデルに登場し始めました。[123]マルチメディアアプリケーションで使用するために作成されました。[113] USBとは異なり、FireWireは、メインCPUからの注意なしに独自の送信を管理できるインテリジェントコントローラを使用します。[124]標準のMIDIデバイスと同様に、FireWireデバイスはコンピュータがなくても相互に通信できます。[125]

XLRコネクター

Octave-Plateau Voyetra-8シンセサイザーは、5ピンDINの代わりにXLR3コネクターを使用した初期のMIDI実装でした。それはMIDI以前の年にリリースされ、後にMIDIインターフェースで後付けされましたが、XLRコネクターは維持されていました。[126]

シリアルパラレル、ジョイスティックポート

コンピューターベースのスタジオセットアップが一般的になるにつれて、コンピューターに直接接続できるMIDIデバイスが利用可能になりました。これらは通常、Blue&WhiteG3モデルの導入前にAppleがシリアルポートとプリンタポ​​ートに使用していた8ピンミニDINコネクタを使用していました。Mark of the Unicorn MIDI Time Pieceなど、スタジオの目玉として使用することを目的としたMIDIインターフェイスは、これらのシリアルポートの標準の20倍で動作する機能を利用できる「高速」伝送モードによって可能になりました。 MIDIスピード。[3]62–3 [125] Mini-DINポートは1990年代後半のMIDI機器に組み込まれ、そのようなデバイスをコンピューターに直接接続できるようにしました。[127] PCのDB-25パラレルポート、または多くのPCサウンドカードにあるジョイスティックポートを介して接続された一部のデバイス。[125]

mLAN

ヤマハは1999年にmLANプロトコルを導入しました。FireWireをトランスポートとして使用する楽器のローカルエリアネットワークとして考案され、マルチチャンネルデジタルオーディオ、データファイル転送、タイムコードとともに複数のMIDIチャンネルを伝送するように設計されました。[123] [124]のmLANはヤマハ製品の数、特に、使用したデジタル・ミキシング・コンソールとMotifの合成、及びそのようなPRESONUS消防署やなどのサードパーティ製品にコルグトライトンスタジオ。[128] 2007年以降新しいmLan製品はリリースされていません。

イーサネットとインターネット

MIDIのコンピュータネットワーク実装は、ネットワークルーティング機能と、ZIPIなどのMIDIの以前の代替手段がもたらすことを目的とした高帯域幅チャネルを提供します。独自の実装が1980年代から存在し、その一部は伝送に光ファイバーケーブルを使用しています。[3] 53-4ザ・インターネットエンジニアリングタスクフォースのRTP-MIDIオープンな仕様は、業界の支持を得ています。AppleはMacOS X 10.4以降でこのプロトコルをサポートしており、Appleの実装に基づくWindowsドライバがWindowsXP以降のバージョンに存在します。[129]

無線

ワイヤレスMIDI伝送用のシステムは、1980年代から利用可能になっています。[3]44いくつかの市販の送信機は、Wi-FiおよびBluetoothを介したMIDIおよびOSC信号のワイヤレス送信を可能にします。[130] iOSデバイスは、Wi-FiとOSCを使用してMIDIコントロールサーフェスとして機能できます。[131]アンのXBeeのラジオは、日曜大工としてプロジェクトワイヤレスMIDIトランシーバを構築するために使用することができます。[132] Androidデバイスは、Wi-FiおよびBluetoothを介していくつかの異なるプロトコルを使用して、完全なMIDIコントロールサーフェスとして機能できます。[133]

TRSミニジャック

Korg Electribe2やArturiaBeatstep Proなど、一部のデバイスはMIDIデータに標準の3.5 mmTRSオーディオミニジャックコネクタを使用します。どちらにも、標準の5ピンDINコネクタに対応するアダプタが付属しています。[要出典][134]これは十分に広まり、MidiManufacturers'Associationが配線を標準化した。[135] MIDI-over-minijack標準ドキュメントでは、オーディオコネクタとの混同を避けるために、3.5mmコネクタよりも2.5mmコネクタの使用を推奨しています。[136]

MIDI 2.0規格は、2020年1月17日にカリフォルニア州アナハイムで開催されたWinter NAMM Showで、Yamaha、Roli、Microsoft、Google、およびMIDIAssociationの代表者による「StrategicOverviewand Introduction toMIDI2.0」というタイトルのセッションで発表されました。[137]この重要な更新により、下位互換性を維持しながら双方向通信が追加されます。[138]

新しいプロトコルは2005年から研究されています。[57] [139] [140]プロトタイプデバイスは有線および無線接続を使用してNAMMで非公開で示され[139]、ライセンスおよび製品認証ポリシーが開発されました。[141]しかしながら、リリース予定日は発表されていません。[142]提案物理層とトランスポート層が含まれるイーサネットなどのプロトコルベースのRTP MIDI及びオーディオビデオブリッジング/時間依存ネットワーク、[125] 、並びにユーザデータグラムプロトコル(UDP)ベースの輸送。[140]

AMEIとMMAは、Google、Yamaha、Steinberg、Roland、Ableton、Native Instruments、ROLIなどの主要メーカーのプロトタイプ実装の相互運用性テストに続いて、完全な仕様が公開されることを発表しました。[23] [119] [143] 2020年1月、ローランドはMIDI2.0をサポートするA-88mkIIコントローラーキーボードを発表しました。[144]

MIDI 2.0には、プロパティ交換とプロファイルのMIDI機能照会仕様、およびMIDI1.0とMIDI2.0の両方のボイスメッセージをサポートする高速トランスポート用の新しいユニバーサルMIDIパケット形式が含まれています。

MIDI機能に関するお問い合わせ

MIDI機能照会(MIDI-CI)は、デバイスプロファイル、パラメーター交換、およびMIDIプロトコルネゴシエーションを実装するためのUniversalSysExメッセージを指定します。[119]仕様は、2017年11月にAMEIによって、2018年1月にMMAによってリリースされました。

パラメータ交換は、サポートされているコントローラ、パッチ名、機器プロファイル、デバイス構成、その他のメタデータなどのデバイス機能を照会し、デバイス構成設定を取得または設定するための方法を定義します。プロパティ交換は、JSON形式のデータを運ぶシステムエクスクルーシブメッセージを使用します。プロファイルは、ドローバーオルガンやアナログシンセなどのさまざまな楽器タイプ、または特定のタスク用のMIDIコントローラーの共通セットを定義し、さまざまなメーカーの楽器間の相互運用性を向上させます。プロトコルネゴシエーションにより、デバイスは次世代プロトコルまたはメーカー固有のプロトコルを使用できます。[143]

ユニバーサルMIDIパケット

MIDI 2.0は、ペイロードタイプに応じてさまざまな長さ(32、64、96、または128ビット)のメッセージを含む新しいユニバーサルMIDIパケット形式を定義します。この新しいパケットフォーマットは、16チャンネルの16グループに編成された合計256のMIDIチャンネルをサポートします。各グループは、MIDI1.0プロトコルストリームまたは新しいMIDI2.0プロトコルストリームのいずれかを伝送できます。また、システムメッセージ、システム専用データ、および複数の同時ノートを正確にレンダリングするためのタイムスタンプを含めることもできます。最初の採用を簡素化するために、既存の製品はMIDI1.0メッセージのみを実装することを明示的に許可されています。ユニバーサルMIDIパケットは、USBやイーサネットなどの高速トランスポートを対象としており、既存の5ピンDIN接続ではサポートされていません。[143] SystemReal-TimeおよびSystemCommonメッセージは、MIDI1.0で定義されているものと同じです。[143]

新しいプロトコル

2019年1月の時点で、新しいプロトコルのドラフト仕様は、MIDI 1.0にも存在するすべてのコアメッセージをサポートしますが、精度と解像度を拡張します。また、多くの新しい高精度コントローラーメッセージを定義します。[143]仕様は、異なるデータ解像度を使用するMIDI2.0チャンネルボイスメッセージとMIDI1.0チャンネルボイスメッセージの間で変換するためのデフォルトの変換ルールを定義し、256のMIDI2.0ストリームを16のMIDI1.0ストリームにマップします。[145] [146]

データ転送フォーマット

システムエクスクルーシブ8メッセージは、ユニバーサルシステムエクスクルーシブメッセージに基づいた新しい8ビットデータ形式を使用します。混合データセットメッセージは、大量のデータセットを転送することを目的としています。システムエクスクルーシブ7メッセージは、以前の7ビットデータ形式を使用します。[143]

  • ABC記譜
  • デジタルピアノ
  • 電子ドラムモジュール
  • ギターシンセサイザー
  • 音楽ソフト一覧
  • MIDIモックアップ
  • MusicXML
  • 音楽マクロ言語
  • オープンサウンドコントロール
  • サウンドフォント
  • スコアライター
  • 合成
  • 合成音楽モバイルアプリケーションフォーマット

  1. ^ MIDI規格では、128の異なるプログラムを選択できますが、デバイスは、パッチをそれぞれ128のプログラムのバンクに配置し、プログラム変更メッセージとバンク選択メッセージを組み合わせることで、より多くのプログラムを提供できます。
  2. ^ MIDIは名目上+5ボルトのソースを使用しますが、MIDI出力回路の抵抗値を変更して、他の電源と同様の電流を実現することができます(特に、3.3ボルトのシステムの場合)。

  1. ^ スウィフト、アンドリュー。(1997/05)は、「Aの簡単なMIDI入門」、SURPRISE、科学技術や医学のインペリアル・カレッジは、アーカイブからオリジナルの2012年8月30に、取得した8月22日の2012
  2. ^ a b 「MIDIの歴史:第6章-MIDIは1980年から1983年に生まれました」。www.midi.org 。2020年1月18日取得
  3. ^ a b c d e f g h i j k l m n o p q r s t u v w x y z フーバー、デビッドマイルズ(1991)。MIDIマニュアル。インディアナ州カーメル:SAMS。ISBN 9780672227578
  4. ^ 「MIDIとは?」。2016年6月16日にオリジナルからアーカイブされました。取得した31年8月2016
  5. ^ サンプル、Electronic Musician –ギアのレビュー、オーディオチュートリアル、ループなどを特集しています。「MIDIアソシエーションはNAMM2016で開始されます」。2016年10月14日にオリジナルからアーカイブされました。取得した31年8月2016
  6. ^ a b c d e チャダベ、ジョエル(2000年5月1日)。「パートIV:未来の種」。電子ミュージシャン。ペントンメディア。XVI(5)。2012年9月28日にオリジナルからアーカイブされました。
  7. ^ a b c カーン、ピーター(2011)。キーボードはエレクトロニックダンスミュージックの進化を提示します。バックビートブック。ISBN 978-1-61713-446-3。2017年2月1日にオリジナルからアーカイブされました。
  8. ^ a b c 「はし郁太郎の生涯と時代、ローランドのパイオニアである現代音楽はすべてを負っている」。ファクトマガジン:音楽ニュース、新しい音楽。2017年4月2日。2018年9月6日取得
  9. ^ a b 「発見された歴史的な初期のMIDIドキュメント」。www.midi.org 。2020年1月18日取得
  10. ^ スミス、デイブ; ウッド、チェット(1981年10月1日)。「「USI」、またはユニバーサルシンセサイザーインターフェイス」。オーディオエンジニアリングソサエティ。 引用ジャーナルには|journal=(ヘルプ)が必要です
  11. ^ a b フーバー、デビッドマイルズ(1991)。MIDIマニュアル。インディアナ州カーメル:SAMS。ISBN 9780672227578
  12. ^ チャダベ、ジョエル(2000年5月1日)。「パートIV:未来の種」。電子ミュージシャン。ペントンメディア。XVI(5)。2012年9月28日にオリジナルからアーカイブされました。
  13. ^ a b c d e ホームズ、トム。電子音楽と実験音楽:テクノロジーと作曲のパイオニア。ニューヨーク:ラウトレッジ、2003年
  14. ^ a b 「デイブスミス」。KeyboardMag 。2018年10月20日取得
  15. ^ a b c d e f g h i j k l m n o p マニング、ピーター。電子およびコンピュータ音楽。1985年。オックスフォード:オックスフォード大学出版局、1994年。印刷。
  16. ^ 「グラミー賞:掛橋郁太郎とデイブ・スミス」。2016年8月22日にオリジナルからアーカイブされました。取得した31年8月2016
  17. ^ 「はし郁太郎、デイブ・スミス:グラミー賞特別賞の受賞」。2014年12月9日にオリジナルからアーカイブされました。取得した31年8月2016
  18. ^ ベイル、マーク(2014)。シンセサイザー。ニューヨーク:オックスフォード大学出版局。p。56. ISBN 978-0-19-539481-8
  19. ^ マーティンラス(2004)。サウンドシンセサイザーとサンプリング。p。66. ISBN 0240516923。2017年10月26日にオリジナルからアーカイブされました。
  20. ^ バトラー、マークジョナサン(2006)。グルーヴのロックを解除する:エレクトロニックダンスミュージックのリズム、メーター、音楽デザイン。インディアナ大学出版局。p。 64。ISBN 0-2533-4662-2
  21. ^ 「ローランド-会社-歴史-歴史」。2017年7月12日にオリジナルからアーカイブされました。2017年5月17日取得
  22. ^ a b 島津武仁(1994)。「日本の電子音楽とコンピュータ音楽の歴史:重要な作曲家とその作品」。レオナルドミュージックジャーナル。MITプレス。4:102–106 [104]。土井:10.2307 / 1513190。JSTOR  1513190。S2CID  193084745。
  23. ^ a b 「MIDIManufacturersAssociation(MMA)とAssociation of Music Electronics Industry(AMEI)がMIDI2.0™プロトタイピングを発表しました」。www.midi.org
  24. ^ Kopf、Dan(2020年1月30日)。「37年前のデジタルプロトコルへのアップデートは、音楽のサウンドの方法を大きく変える可能性があります」。クォーツ。2020年2月3日取得
  25. ^ ポール、クラナー(1991年10月)。「古代美術のための新しいツール:コンピューターと音楽」。コンピュータと人文科学25(5):308–309。土井:10.1007 / bf00120967。JSTOR  30204425。S2CID  60991034。
  26. ^ マカン、エドワード。Rocking the Classics:English Progressive Rock and theCounterculture。ニューヨーク:オックスフォード大学出版局、1997年。p.191
  27. ^ シューカー、ロイ。ポピュラー音楽を理解する。ロンドン:ラウトレッジ、1994年。p.286
  28. ^ デモレスト、スティーブンM.合唱の卓越性の構築:合唱リハーサルで視力を教える-歌う。ニューヨーク:オックスフォード大学出版局、2003年。p。17
  29. ^ Pertout、Andrian。ミックスダウン月間 アーカイブで2012年5月4日ウェイバックマシン、#26。1996年6月26日。Web。2012年8月22日
  30. ^ a b ラウ、ポール。「なぜまだMIDIなのか?」– HighBeam Research 経由 (サブスクリプションが必要) 2013年5月2日にWayback Machine CanadianMusicianでアーカイブされました。Norris-Whitney Communications Inc. 2008. HighBeamResearch。2012年9月4日
  31. ^ サッソ、レン(2011年10月13日)。「サウンドプログラミング101」。電子ミュージシャン。ニューベイメディア。2012年3月17日にオリジナルからアーカイブされました。
  32. ^ アンダートン、クレイグ(1995年5月)。「ギタリストのためのMIDI:MIDIエフェクトコントロールのクラッシュコース」。サウンドオンサウンド。SOS出版物。2012年1月10日にオリジナルからアーカイブされました。
  33. ^ 「デジタルオーディオワークステーション–イントロ」。2012年1月10日にオリジナルからアーカイブされました。[より良い情報源が必要]
  34. ^ a b c ブリュースター、スティーブン。「非音声聴覚出力」。ヒューマンコンピュータインタラクションハンドブック:基礎、進化するテクノロジー、および新しいアプリケーション。エド。ジュリーA.ジャッコ; アンドリューシアーズ。Mahwah:Lawrence Erlbaum Associates、2003年。p.227
  35. ^ キャンベル、ドリュー。""クリック、クリック。オーディオ」ステージディレクション。Vol。16、No。3。2003年3月。
  36. ^ McCutchan、アン。歌うミューズ:作曲家は創造的なプロセスについて話します。ニューヨーク:オックスフォード大学出版局、1999年。p。67-68,72
  37. ^ a b ラス、マーティン(2012)。サウンドシンセサイザーとサンプリング。CRCプレス。p。192. ISBN 978-1136122149。2017年4月28日にオリジナルからアーカイブされました。2017年4月26日取得
  38. ^ ヘレンカサボナ; デビッドフレデリック。高度なMIDIアプリケーション。アルフレッドミュージック。p。15. ISBN 9781457438936。2017年10月26日にオリジナルからアーカイブされました。
  39. ^ B MIDIインターフェイスのためのTHE IBM PC アーカイブで2015年10月21日ウェイバックマシン、電子ミュージシャン、1990年9月
  40. ^ 「MPU-401のプログラミング」。www.piclist.com。2017年5月6日にオリジナルからアーカイブされました。
  41. ^ MIDIプロセッシングユニットMPU-401テクニカルリファレンスマニュアル、ローランドコーポレーション
  42. ^ Peter Manning(2013)、 Electronic and Computer Music Archived 26 October 2017 at the Wayback Machine、page 319、 Oxford University Press
  43. ^ 「VIC-20MIDIカートリッジ」。レトロイノベーション。2021年2月28日取得
  44. ^ 「MIDIマエストロ–レトロイノベーション」。2021年2月28日取得
  45. ^ 「FamimimidiFamicomバージョン」。CatskullElectronics 。2021年2月28日取得
  46. ^ 「TeensyboyPro」。CatskullElectronics 。2021年2月28日取得
  47. ^ 「GBAMIDIシンセ」。CatskullElectronics 。2021年2月28日取得
  48. ^ 「genMDM」。CatskullElectronics 。2021年2月28日取得
  49. ^ 「標準MIDIファイル(SMF)仕様」。www.midi.org
  50. ^ ハス、ジェフリー。「第3章:MIDIのしくみ10 2015年6月7日にウェイバックマシンでアーカイブ」。インディアナ大学ジェイコブズ音楽院。2010. Web 2012年8月13日
  51. ^ 「MIDIファイル」。midi.org。音楽メーカー協会。2012年8月22日にオリジナルからアーカイブされました。タイプ2も最初に指定されましたが、実際にキャッチされることはありませんでした。
  52. ^ 「 RIFFベースのMIDIファイル形式 のアーカイブで、2012年8月17日ウェイバックマシン」。digitalpreservation.gov。議会図書館。2012年3月26日。Web。2012年8月18日
  53. ^ a b c クロフォード、ウォルト。「MIDIとWave:言語への対処」。オンライン。巻 20、No.1。1996年1月/ 2月
  54. ^ Aboukhadijeh、フェロス。(2018年8月)、BitMidiを発表、2018年11月18日取得
  55. ^ 「インターネットの最初のヒットファイル形式はMP3ではありませんでした。それはMIDIでした」。2020年10月12日取得
  56. ^ a b ウィッフェン、ポール。「シンセスクール、パート3:デジタルシンセサイザー(FM、PD、VPM)は 2005年12月1日にウェイバックマシンでアーカイブされました」。サウンドオンサウンド1997年9月。印刷。
  57. ^ a b バッティーノ、デビッド。最後に:MIDI 2.0 は、2012年8月16日にWayback Machine O'Reilly Digital MediaBlogアーカイブされました。O'Reilly Media、Inc. 2005年10月6日。Web。2012年8月22日
  58. ^ ゲラーマン、エリザベス。「オーディオ編集ソフトウェアはマルチメディア開発者の耳にとって音楽です」。教育ジャーナルの技術的地平。巻 22、No.2。1994年9月
  59. ^ a b c デズモンド、ピーター。「二次音楽カリキュラムにおけるICT」。二次音楽を教えることの側面:実践の展望。ed。ゲイリー・スプルース。ニューヨーク:RoutledgeFalmer、2002年
  60. ^ ソロモン、カレン。「2009年8月16日にウェイバックマシンでアーカイブされた音楽を感じなければならない 」。Wired.com。コンデナスト。2000年2月27日。Web。2012年8月13日。
  61. ^ クック、ジャネット・ハーニマン。「 MusitekMidiscanv2.51は 2012年1月10日にウェイバックマシンでアーカイブされました」。サウンドオンサウンド。SOS出版物。1998年12月。印刷。
  62. ^ ジョンソン、デレク。「2011年12月25日にウェイバックマシンでアーカイブされたヤマハFS1Rエディターソフトウェア 」。サウンドオンサウンド。1999年3月。
  63. ^ ジョンソン、デレク、デビーポイザー。「ヤマハFS1Rは 2007年4月15日にウェイバックマシンでアーカイブされました」。サウンドオンサウンド。1998年12月。
  64. ^ a b c Gibbs、Jonathan(Rev。by Peter Howell)「エレクトロニックミュージック」。録音練習、第4版。エド。ジョン・ボーウィック。オックスフォード:オックスフォード大学出版局、1996年
  65. ^ 「サウンドクエストMIDIクエスト11ユニバーサルエディター」。squest.com。2014年3月6日にオリジナルからアーカイブされました。
  66. ^ a b 「デスクトップミュージックハン​​ドブック– 2012年8月14日にウェイバックマシンでアーカイブされたMIDI」。cakewalk.com。Cakewalk、Inc. 2010年11月26日。Web。2012年8月7日取得。
  67. ^ 価格、サイモン。「価格、サイモン。 『Native Instrumentsのコレ』。サウンドのサウンド7月6日」。Soundonsound.com。2013年6月2日にオリジナルからアーカイブされました。取得した27年11月2012
  68. ^ a b ボーズマン、ウィリアムC.教育技術:アメリカの学校からのベストプラクティス。Larchmont:Eye on Education、1999年。
  69. ^ ・レーマン・ポール・D.「ソフトウェアの合成:未来の波? アーカイブで2012年1月10日ウェイバックマシン」音のサウンド。SOS出版物。1995年10月。印刷。
  70. ^ a b c ウォーカー、マーティン。「2012年1月10日にウェイバックマシンでアーカイブされたPCのMIDIとオーディオのタイミングの問題の特定と解決 」。サウンドオンサウンド。SOS出版物。2001年3月。印刷。
  71. ^ a b ミラー、デニス。「サウンドの合成にはAコンピューター、パート2 アーカイブで2012年1月10日ウェイバックマシン」。サウンドオンサウンド。SOS出版物。1997年5月。印刷。
  72. ^ 「ウェイバックマシンで2012年10月30日にアーカイブされたMIDIの祖先とマイルストーン 」。keyboardmag.com。ニューベイメディア。ndWeb。2012年8月6日。
  73. ^ ウォーカー、マーティン。「 WaybackMachineで 2015年2月25日にアーカイブされたRealityPC」。サウンドオンサウンド。SOS出版物。1997年11月。印刷。
  74. ^ ウェリー、マーク。「2011年12月25日にウェイバックマシンでアーカイブされたクリームウェアスコープ 」。サウンドオンサウンド。SOS出版物。2003年6月。印刷。
  75. ^ アンダートン、クレイグ。「 SonicCoreSCOPEXite-1は 2012年10月30日にウェイバックマシンでアーカイブされました」。Keyboardmag.com。ニューベイメディア、LLC。ndWeb。
  76. ^ デビッド・ニコルソン。「ハードウェア。」– HighBeam Research 経由 (サブスクリプションが必要) 2013年5月2日にWayback Machine The WashingtonPostでアーカイブされました。ワシントンポストニューズウィークインタラクティブ。1993年。HighBeamResearch。2012年9月4日
  77. ^ a b Levy、David S. " AztechのWavePowerドーターカードはFM受信を改善します。(AztechLabsInc。のSoundBlaster16またはSoundGalaxy Pro 16サウンドカード用のウェーブテーブルシンセシスアドオンカード)(ハードウェアレビュー)(評価)。 アーカイブ2013年5月2日ウェイバックマシン「コンピューターショッパー」にて。SX2 Media LabsLLC。1994年。HighBeamResearch。2012年9月4日– HighBeam Research 経由 (サブスクリプションが必要)
  78. ^ ラブリオラ、ドン。「 MIDIマスター:ウェーブテーブルシンセシスは、安価なサウンドカードに音のリアリズムをもたらします。(8つの楽器デジタルインターフェイスサウンドカードのレビュー)(テスト方法、ウェーブテーブルテクノロジーの落とし穴、将来のウェーブテーブル開発に関する関連記事を含む)(ハードウェアレビュー)(評価)。 "– HighBeam Research 経由 (サブスクリプションが必要) 2013年5月2日にWayback Machine ComputerShopperでアーカイブされました。SX2 Media LabsLLC。1994年。HighBeamResearch。2012年9月4日
  79. ^ 「ウェイバックマシンで2013年5月31日にアーカイブされたインターフェース回路 」。MIDIキット。np 2012年8月30日。Web。2012年8月30日。
  80. ^ 「5ピンDIN電気的仕様」。MIDIアソシエーション。2021年4月8日取得
  81. ^ ロックウッド、デイブ。「 TCElectronicGMajorは 2012年3月20日にウェイバックマシンでアーカイブされました」。サウンドオンサウンド。SOS出版物。2001年12月。印刷。
  82. ^ モーニントン-西、アレン。「デジタル理論」。録音の練習。第4版 エド。ジョン・ボーウィック。オックスフォード:オックスフォード大学出版局、1996年。
  83. ^ 「リッチモンドサウンドデザイン– 2006年1月5日にウェイバックマシンでアーカイブされたよくある質問」。richmondsounddesign.com。ウェブ。2012年8月5日。
  84. ^ a b ハス、ジェフリー。「第3章:MIDIのしくみ2 ウェイバックマシンで2015年6月17日にアーカイブ」。インディアナ大学ジェイコブズ音楽院。2010年。ウェブ。2012年8月13日。
  85. ^ ロビンソン、ハービー。「 Re:コアミディタイムスタンプ 2012年10月28日ウェイバックマシンでアーカイブ」。AppleCoreaudio-apiメーリングリスト。Apple、Inc. 2005年7月18日。2012年8月8日。
  86. ^ シラク、ロブ。「ウェイバックマシンで2014年3月23日にアーカイブされたユニコーンのマーク 」。emusician.com。ニューベイメディア。2000年10月1日。Web。2012年8月8日取得。
  87. ^ 「ウェイバックマシンで2012年11月18日にアーカイブされたMIDIパフォーマンス楽器 」。変化の道具。巻 3、No。1(1999年冬)。米国ローランドコーポレーション
  88. ^ 「ウェイバックマシンで2012年7月16日にアーカイブされたMIDI製品 」。midi.org。MIDIマニュファクチャラーズアソシエーション。1012年8月1日
  89. ^ ラニアー、ジャロン(2011)。あなたはガジェットではありません。ニューヨーク:ヴィンテージ。ISBN 978-0307389978
  90. ^ プレヴェ、フランシス。「第1回キーボードの殿堂」の「デイブ・スミス」。キーボード(米国)。NewBay Media、LLC。2012年9月。印刷。p.18
  91. ^ 「ウェイバックマシンで2012年9月16日にアーカイブされたコルグレガシーコレクション 」。vintagesynth.com。ヴィンテージシンセエクスプローラー。ndWeb。2012年8月21日
  92. ^ ハス、ジェフリー。「第3章:MIDIのしくみ3 ウェイバックマシンで2015年6月19日にアーカイブ」。インディアナ大学ジェイコブズ音楽院。2010年。ウェブ。2012年8月13日。
  93. ^ ハス、ジェフリー。「第3章:MIDIのしくみ9 ウェイバックマシンで2015年6月7日にアーカイブ」。インディアナ大学ジェイコブズ音楽院。2010年。ウェブ。2012年8月13日。
  94. ^ a b MMA。「MIDIDIN電気仕様」 (PDF)。2015年12月22日のオリジナルからアーカイブ (PDF)。取得した31年8月2016
  95. ^ a b c Bello、Juan P.「MIDI:サウンドコントロール 2012年11月20日にウェイバックマシンでアーカイブ」。nyu.edu。ニューヨーク大学。ndWeb。2012年8月18日
  96. ^ " "一般的なMIDI規格" www.harfesoft.de。npndウェブ"。Harfesoft.de。2012年8月28日にオリジナルからアーカイブされました。取得した27年11月2012
  97. ^ 「 WaybackMachineで2013年1月20日にアーカイブされたGeneralMIDI標準 」。pgcc.edu。プリンスジョージズコミュニティカレッジ。ndWeb。
  98. ^ イアルナ、ジョン。「GeneralMIDI(GM)レベル1サウンドセット」。TraxMIDIファイルを押します
  99. ^ グラット、ジェフ。「一般的なMIDI アーカイブで2012年10月23日ウェイバックマシン」。MIDIテクニカルファナティックの洗脳センター。npndWeb。2012年8月17日
  100. ^ ネーグル、ポール。「ヤマハMU50&ヤマハCBX-K1は 2012年1月10日にウェイバックマシンでアーカイブされました」。サウンドオンサウンド。SOS出版物。1995年9月。印刷。
  101. ^ 「 WaybackMachineで2012年1月3日にアーカイブされたGeneralMIDIについて 」。midi.org。MIDIマニュファクチャラーズアソシエーション。ndWeb。2012年8月17日
  102. ^ a b "ウェイバックマシンで2012年11月18日にアーカイブされたMIDIチューニング標準 "。microtonal-synthesis.com。npndWeb。2012年8月17日
  103. ^ 「MIDIチューニングメッセージ」。MIDIマニュファクチャラーズアソシエーション。2012年8月17日。2012年11月30日のオリジナルからアーカイブ。
  104. ^ グラット、ジェフ。「ウェイバックマシンで2012年5月1日にアーカイブされたMIDIの始まり 」。MIDIテクニカルファナティックの洗脳センター。npndWeb。2012年8月13日。
  105. ^ グラット、ジェフ。「ウェイバックマシンで2012年2月12日にアーカイブされたMIDIタイムコード 」。MIDIテクニカルファナティックの洗脳センター。npndWeb。2012年8月13日。
  106. ^ ホワイト、ポール。「 SMPTE&MTC(MIDIタイムコード) アーカイブで2012年1月10ウェイバックマシン」音のサウンド。SOS出版物。1996年6月。印刷。
  107. ^ " " Q&A "甘いノート。スウィートウォーターサウンド。夏の1996年のWeb" 。Sweetwater.com。2012年12月5日にオリジナルからアーカイブされました。取得した27年11月2012
  108. ^ グラット、ジェフ。「2012年11月27日にウェイバックマシンでアーカイブされたMIDIマシンコントロール(MMC) 」。MIDIテクニカルファナティックの洗脳センター。npndWeb。
  109. ^ 「用語集: ウェイバックマシンで2012年12月5日にアーカイブされたMIDIマシンコントロール(MMC)」。sweetwater.com。スイートウォーターサウンド。ndWeb。2012年8月15日。
  110. ^ a b "ウェイバックマシンで2012年7月17日にアーカイブされたニュースページ "。richmondsounddesign.com。Richmond Sound Design、Ltd. 2012年7月17日。Web。2012年8月17日
  111. ^ 「ウェイバックマシンで2012年6月21日にアーカイブされた安価なMIDIショーコントロールシステム 」。照明TechNotes。バージニア大学。2004年10月25日。Web。2012年8月17日。
  112. ^ 「用語集: ウェイバックマシンで2012年12月5日にアーカイブされたMTS(MIDIタイムスタンプ)」。sweetwater.com。スイートウォーターサウンド。ndWeb。2012年8月17日
  113. ^ a b ウォーカー、マーティン。「レイテンシーについての真実:パート2は 2011年12月25日にウェイバックマシンでアーカイブされました」。サウンドオンサウンド。SOS出版物。2002年10月。印刷。
  114. ^ グラット、ジェフ。[1]。MIDIテクニカルファナティックの洗脳センター。npndWeb。2012年8月13日。
  115. ^ 「Massey、Howard。「DLSの概要」。midi.org。ndWeb。2012年8月27日」。Midi.org。2012年11月27日にオリジナルからアーカイブされました。取得した27年11月2012
  116. ^ " " DLS 1 Spec " .midi.org .ndWeb。2012年8月27日"。Midi.org。2012年11月30日にオリジナルからアーカイブされました。取得した27年11月2012
  117. ^ a b MIDI製造業者協会(2018年1月)。「MIDIポリフォニックエクスプレッション(MPE)仕様採用!」。2017年11月2日にオリジナルからアーカイブされました。2018年2月12日取得
  118. ^ リン、ロジャー。「MIDIサウンドジェネレーターの開発者向け:MPE機能を追加する方法」。2016年9月17日にオリジナルからアーカイブされました。検索された8年9月2016
  119. ^ a b c 「MIDIManufacturersAssociation(MMA)がMIDI機能照会(MIDI-CI)仕様を採用」。www.midi.org
  120. ^ ジノ・ロベア。「3人の先駆者が多次元ポリフォニック表現について話し合っています」。ROLI。電子ミュージシャン。2019年1月10日取得
  121. ^ マグネティックマグ 「レビュー:フィルタリングされていないオーディオサンドマンプロ」。2017年9月6日にオリジナルからアーカイブされました。2017年9月6日取得
  122. ^ Ashour、Gal、他。。usb.org USB Implementers Forum は、2015年4月26日にWaybackMachineでアーカイブされました。1999年11月1日。Web。2012年8月22日
  123. ^ a b ウィッフェン、ポール。「mLANの紹介、パート1、 2016年1月2日にウェイバックマシンでアーカイブ」。サウンドオンサウンド。SOS出版物。2000年8月。印刷。
  124. ^ a b ウィッフェン、ポール。「入門へのmLANパート2 アーカイブで2012年1月10日ウェイバックマシン」。サウンドオンサウンド。SOS出版物。2000年9月。印刷。
  125. ^ bはCのD 「MIDIケーブル&トランスポート アーカイブで2012年11月4日ウェイバックマシン」。midi.org。音楽メーカー協会。ndWeb。2012年8月27日。
  126. ^ ベイル、マーク。「Voyetra8:オリジナルのラックマウントアナログポリシンセ」。キーボードマガジン。タートルビーチ。2013年6月30日にオリジナルからアーカイブされました。検索された21 5月2013
  127. ^ 「CS2xコントロールシンセサイザーオーナーズマニュアル」。ヤマハ株式会社、1998年。
  128. ^ " " PreSonusFIREstation " 。presonus.com。npndWeb。2012年8月18日"。Presonus.com。2012年12月31日にオリジナルからアーカイブされました。取得した27年11月2012
  129. ^ 「rtpMIDI」。tobias-erichsen.de。npndWeb。2012年8月22日のWindows RTP-MIDIドライバーのダウンロード アーカイブで2012年8月16日ウェイバックマシン
  130. ^ カーン、ピーター。「ワイヤレスの黄金時代:コルグiOS同期、Android + MIDIハードウェア、Bluetooth MIDIに入る? 2012年9月11日にウェイバックマシンでアーカイブ」。createdigitalmusic.com。np 2011年3月25日。Web。
  131. ^ " " TouchOSC " 。hexler.netnpndWeb。2012年8月20日"。Hexler.net。2012年12月5日にオリジナルからアーカイブされました。取得した27年11月2012
  132. ^ 「 XBeeアダプタ– ウェイバックマシンで2012年6月2日にアーカイブされたワイヤレスArduinoプログラミング」。ladyada.net。np 2011年5月17日。Web。2012年8月20日。
  133. ^ 「TouchDAW–Android™用のDAWコントローラーとMIDIユーティリティ」。2016年9月7日にオリジナルからアーカイブされました。取得した31年8月2016
  134. ^ 「MIDIにステレオミニジャックケーブルを使用した場合はどうなりますか?」。2015年8月26日。
  135. ^ 「採用およびリリースされたTRSアダプタの仕様」。www.midi.org
  136. ^ 「公式です。ミニジャック接続はMIDIのコーシャになりました」。2018年8月21日。
  137. ^ 「2020NAMMショーでのMIDI2.0」。www.midi.org 。2020年1月18日取得
  138. ^ 「ADC2019はMIDI2.0以上を備えています」。www.midi.org 。2020年1月18日取得
  139. ^ a b "ウェイバックマシンで2011年5月14日にアーカイブされたMMAHDプロトコルの発表 "。midi.org。MIDIマニュファクチャラーズアソシエーション。ndWeb。2012年8月22日
  140. ^ a b "ウェイバックマシンで2012年1月9日にアーカイブされたMMAによるMIDI開発者のための総会 "。pro-music-news.com。プロミュージック-ニュース。2012年8月22日
  141. ^ 「ニュース:冬のNAMMショーで新しい高度な楽器制御技術に関するビジネス戦略セッションを主催するMIDIメーカー協会」。2016年10月14日にオリジナルからアーカイブされました。取得した31年8月2016
  142. ^ フューチャーミュージックマガジン(2013年2月4日)。「NAMM2013:パネルディスカッション:MIDIの過去、現在、未来」。2016年10月14日にオリジナルからアーカイブされました。取得した31年8月2016のYouTube経由して- 。
  143. ^ a b c d e f 「MIDI2.0、MIDI-CI、プロファイル、およびプロパティ交換に関する詳細」。www.midi.org
  144. ^ Deahl、Dani(2020年1月7日)。「ローランドのA-88MKIIキーボードは、MIDI2.0が進行中であることを示しています」。ザ・ヴァージ
  145. ^ 「MikeKent、Florian Bomers、およびBrett Porter-MIDI2.0の概要-YouTube」。www.youtube.com
  146. ^ 「ArneSchefflerとJanneRoeper-VST3インストゥルメントでのMIDI2とMIDI-CIのサポート-YouTube」。www.youtube.com

  • MIDIアソシエーション
  • あなたは英語MIDIの仕様をダウンロードすることができますで、MIDI製造者協会