VOCALOID
[Wikipedia|▼Menu]
□記事を途中から表示しています
[最初から表示]

NetVOCALOID

NetVOCALOIDは、サーバ上にVOCALOIDを実装し歌声合成機能をネットワークを介して事業者向けに提供するSaaS型のサービス。一般ユーザー向けのサービスはヤマハ自体ではなく提供を受けた事業者が行い、入力内容は事業者によってNetVOCALOIDサーバへ送られ歌声の合成が行われる[188]。インターネットにつながっている機器であればVOCALOIDの機能を提供出来、スペックの低いパソコンや携帯電話やゲーム機といった機器からVOCALOIDを利用するサービス[188]、インターネット上のアバターに歌を歌わせる、ロボットへの応用、広告への利用といった展開も可能とされる[189]

NetVOCALOIDを活用したサービスは、2009年4月9日にインターネット社の「ケータイがくっぽいど」、クリプトン・フューチャー・メディアの「ミクと歌おう♪」が開始されており[190]それぞれ携帯電話を通じて「がくっぽいど」、「初音ミク」の歌声を利用できる。また、携帯電話向けのサービスでは、KDDIの携帯電話ブランド「iida」の2009年から開始した期間限定のユーザー参加型キャンペーン「iida calling」のver.2、ver.3、ver.3.1でもNetVOCALOIDによる合成音声が利用されている(パソコンからの利用も可能)[191]。上記のいずれのサービスも携帯電話から歌詞をテキスト入力するとあらかじめ用意された楽曲に合わせた合成音声が生成されて曲が完成し、これを着うたなどに利用できるものとなっている。また、2010年4月に発売されたゲームソフト『メタルギアソリッド ピースウォーカー』では、NetVOCALOIDを使用し、プレーヤーが自ら作成した歌を歌わせる機能が搭載され[161]。NetVOCALOIDのサーバは本ゲーム専用のサーバシステム内に設置され[161]、プレイヤーの編集に合わせて各ゲーム機端末へデータがダウンロードされるようになっていた。なお、これら以外にも、NetVOCALOIDの技術を使用していることを前面に出さずに展開されているサービスがいくつも存在するという[137]
VocaListener

VocaListener(ボーカリスナー)は産業技術総合研究所が発表した、歌声を入力に用いてVOCALOIDのパラメーターを設定し合成歌唱を作り出すことのできるシステム。略称は「ぼかりす」。2008年5月28日に第75回音楽情報科学研究会で発表された。なお、発表に先立って同年4月28日に、動画投稿サイトニコニコ動画にてVocaListenerを用いて作成された歌声が公開され、その人間が歌っているかのような自然な歌声で話題を呼んでいる[192]。VocaListenerは、入力された歌唱からパラメーターを推定し、更に合成歌唱と元の歌唱とを比較しながらパラメータの再調整を繰り返すことで歌手ライブラリごとの特性などによらず元の歌唱の歌い回しを真似た合成歌唱を得ることができる。元となる歌唱の音高や歌唱スタイルを調整する機能も備えており、ユーザーの歌唱力が低い場合やユーザが歌唱できない表現にも対応する。

ヤマハはVocaListenerの発表を受けて、2008年11月より産業技術総合研究所との共同研究を開始、2012年10月に「VOCALOID3 Editor」で使用できるプラグイン、「VOCALOID3 Job Plugin VocaListener」発売された[193]。なお、これ以前には、2009年4月に簡易版のVocaListenerの機能をネットワーク経由で提供するサービス「Netぼかりす」の開発を行っていることを発表[194]、2010年10月に「VY1」および「VY2」向けの「Netぼかりす」のサービスの年内の提供が発表されている[195]。しかし、クラウド型にするために機能を絞り込んだ結果、仕様や性能に難があり、2011年4月に断念された[193][196]。なお、2011年9月に発売されたアルバム『THE VOCALOID produced by Yamaha』では一部の収録曲の制作にVocaListenerが使用されている。

また、2010年7月に元の歌唱の声色を真似て合成音声の声色を変化させる機能も盛り込んだVocaListener2(ほかりす2)が発表されている[197][198]。VocaListener2の機能は、VOCALOIDパラメータの操作では完結しないため、2012年10月の商品化には盛り込まれていない[193]
VOCALOID SDK for Unity

ゲームエンジン「Unity」の開発環境からシームレスに「VOCALOID」の歌声合成エンジンにアクセスして、その機能を利用することを可能にするソフトウェア開発キット。「Unityランタイム版VOCALOID Library unity-chan!」が同梱されており、これにより、ゲームのシチュエーションやユーザーの操作に連動してリアルタイムに歌声を合成し、キャラクターに歌を唄わせたり、その歌い方を変化させたりするようなインタラクティブなコンテンツを容易に開発することが可能となる。2015年12月22日より提供が開始された。
VOCALOID β-STUDIO.mw-parser-output .ambox{border:1px solid #a2a9b1;border-left:10px solid #36c;background-color:#fbfbfb;box-sizing:border-box}.mw-parser-output .ambox+link+.ambox,.mw-parser-output .ambox+link+style+.ambox,.mw-parser-output .ambox+link+link+.ambox,.mw-parser-output .ambox+.mw-empty-elt+link+.ambox,.mw-parser-output .ambox+.mw-empty-elt+link+style+.ambox,.mw-parser-output .ambox+.mw-empty-elt+link+link+.ambox{margin-top:-1px}html body.mediawiki .mw-parser-output .ambox.mbox-small-left{margin:4px 1em 4px 0;overflow:hidden;width:238px;border-collapse:collapse;font-size:88%;line-height:1.25em}.mw-parser-output .ambox-speedy{border-left:10px solid #b32424;background-color:#fee7e6}.mw-parser-output .ambox-delete{border-left:10px solid #b32424}.mw-parser-output .ambox-content{border-left:10px solid #f28500}.mw-parser-output .ambox-style{border-left:10px solid #fc3}.mw-parser-output .ambox-move{border-left:10px solid #9932cc}.mw-parser-output .ambox-protection{border-left:10px solid #a2a9b1}.mw-parser-output .ambox .mbox-text{border:none;padding:0.25em 0.5em;width:100%;font-size:90%}.mw-parser-output .ambox .mbox-image{border:none;padding:2px 0 2px 0.5em;text-align:center}.mw-parser-output .ambox .mbox-imageright{border:none;padding:2px 0.5em 2px 0;text-align:center}.mw-parser-output .ambox .mbox-empty-cell{border:none;padding:0;width:1px}.mw-parser-output .ambox .mbox-image-div{width:52px}html.client-js body.skin-minerva .mw-parser-output .mbox-text-span{margin-left:23px!important}@media(min-width:720px){.mw-parser-output .ambox{margin:0 10%}}

この節の加筆が望まれています。

2023年8月22日に始動したプロジェクトで、2024年3月31日まで活動。

VOCALOID製品の次期バージョンのテストではなく、音声合成における研究に特化した実験スタジオとして設立している。参加に関しては抽選制をとっており、当選者にはDAW用プラグイン「VX-β」が提供される。

VX-βでは、以下の専用ボイスバンクが提供されていた。

prtv_0

prtv_1

prtv_2

prtv_3

我然β

nagiβ

multiβ-N

ゲキヤクβ

カゼヒキβ

花奏かのんβ

杏戸ゆげβ

Ciちゃんβ

春日部つむぎβ

年表

2000年

3月 - ヤマハら、DAISYプロジェクトとして、後にVOCALOIDとなる歌声合成技術の開発を開始[11]

7月 - 合成エンジン、初めて「朝」と歌う[199]


2002年7月 - 試作品完成。ヤマハ、着メロ事業で関係のあったクリプトン・フューチャー・メディアに最初のプレゼンテーション。同社がZERO-Gに紹介[200]

2003年

2月26日 - ヤマハ、VOCALOIDを発表[3]

3月 - ドイツ・フランクフルト「ムジークメッセ」で展示(5?9日)。オランダ・アムステルダム「AES コンベンション」で展示(22?25日)で展示[201]


2004年

1月 - ZERO-G、ロサンゼルスで開催されたNAMM ショー(15-18日)にて初めてのVOCALOID製品である「LEON」、「LOLA」を発売(日本国内での発売は3月3日)。

7月1日 - ZERO-G、「MIRIAM」を発売(日本国内での発売は7月26日)。

11月5日 - クリプトン・フューチャー・メディア、初の日本語用VOCALOID「MEIKO」を発売。


2005年

6月 - ヤマハ、VOCALOIDのエンジンをVer1.1 へバージョンアップ[202]


2006年

2月17日 - クリプトン・フューチャー・メディア、「KAITO」を発売。


2007年

1月 - ヤマハ、アナハイムで開催されたNAMMショー(18-21日)にてVOCALOID2を発表[203]

6月29日 - PowerFX、VOCALOID2を使用した初めての製品「SWEET ANN」を発売(日本国内での発売は9月21日)。

8月31日 - クリプトン・フューチャー・メディア、初めての日本語用のVOCALOID2製品「初音ミク」を発売。

12月27日 - クリプトン・フューチャー・メディア、「鏡音リン・レン」を発売。このうち、鏡音レンはVOCALOID2で初の男声音源である。


2008年

1月14日 - ZERO-G、「PRIMA」を発売(日本国内での発売は2月22日)。

7月31日 - インターネット、「がくっぽいど」を発売。


2009年

1月30日 - クリプトン・フューチャー・メディア、「巡音ルカ」を発売。

4月7日 - ヤマハ、NetVOCALOIDのサービス開始を発表[188]

4月9日 - NetVOCALOIDを利用した携帯電話向けサイトとしてインターネットの「ケータイがくっぽいど」、クリプトン・フューチャー・メディアの「ミクと歌おう♪」開始[190]


次ページ
記事の検索
おまかせリスト
▼オプションを表示
ブックマーク登録
mixiチェック!
Twitterに投稿
オプション/リンク一覧
話題のニュース
列車運行情報
暇つぶしWikipedia

Size:293 KB
出典: フリー百科事典『ウィキペディア(Wikipedia)
担当:undef