こんばんは。 ユウイチと二人で弾き語りツアーする"半月酒場〜星巡りのたび〜"についてのちょっとしたお話をば。 二人で弾き語りやるのを、熊谷モルタルレコードの山崎さんに誘われてから割とガチで初めて、何本かライブ重ねてきました。 山崎さん、今回もお世話になります!熊谷に行けるきっかけでもあるので、モルタルの存在はやはりでかいです。あざす!
よく夜の野山を散歩したという賢治が、星を眺めながら歌うのを想像して制作しました。バイオリンが好きだった妹とし子が前奏を弾き、それに乗せて賢治が歌うという想定です。 間奏ではとし子のバイオリンとともに、歌を担当の賢治がチェロの演奏を披露してハーモニーを作り出すという設定にしています。そのシルエットをアニメーションにも織り込みました。 天にいつまでも輝く双子の星チュンセとポーセ、そして宮沢賢治と妹とし子に、この作品を届けたい! そんな思いで作りました。 ケンタウル祭の夜に独りたたずむジョバンニ少年と、その後ろで静かに寄り添う賢治のツーショットでスタート(ジョバンニ、君はほんとうは独りじゃないよ)。 ラストで横切る流れ星は、『銀河鉄道の夜』のカンパネルラでしょうか、あるいは『双子の星』のチュンセとポーセを乗せた彗星でしょうか。チュンセとポーセを乗せた彗星なら、このあとまだまだ二人の旅は続きますね。 これを見てくれた人が、宮沢賢治の作品や心に少しでも興味を持ってくれたら幸いです。 「星めぐりの歌」の歌詞は本当の星空の通り?
赤い目玉のサソリ、という歌が劇中で歌われる邦画を知りませんか? 「アカルイミライ」で藤竜也が歌いま 「アカルイミライ」で藤竜也が歌いますが、これとは別の映画でも歌われていたという記憶があります。それがなんだったか知りたいです。 ジブリ映画の 「平成狸合戦ぽんぽこ」ではないでしょうか? 宮沢賢治作詞作曲の 『双子の星「星めぐりの歌」』 とう歌ですよね あかいめだまのさそり ひろげた鷲のつばさ あをいめだまの小いぬ ひかりのへびのとぐろ オリオンは高くうたひ つゆとしもとをおとす
「赤い目玉のサソリ、 広げた鷲の翼、 青い目玉の子犬、 光の蛇のとぐろ。 オリオンは高く歌い、 露と霜とを落とす。」 宮沢賢治の詩「星巡りの歌」が、 似合う星空の頃。 寒い冬がやってきました。 心と体があたたまる、 夕餉は何にしましょうか♪
g. (イージー)」 からもご覧いただけます。 音声認識の普及と課題 Photo by mohamed hassan on Pixhere Appleの「Siri」やAndroid OSの「Googleアシスタント」など、音声認識サービスは生活にも大きく普及しています。リリース当初と比べ、音声認識の技術は格段に上がり、現在では、検索エンジン上でも欠かせない存在となりました。 一方、こうした音声認識サービスの日本での普及率は、あまり高くありません。 2018年4月iProspectが行った調査 では、「過去6か月以内にスマホの音声認識機能を使用したか」という問いに対し、「使用した」人の平均62%、インド(82%)、中国(77%)と半数を超えるなか、日本は40%と諸外国と比べ、低い普及率でした。 音声認識は、ビジネスや日常生活で大きく活用されています。私たちは日々進化する技術革新を観察し、AI(人工知能)を積極的に受け入れていくことが必要なのではないでしょうか。
巨大なデータセットと巨大なネットワーク 前述した通り、GPT-3は約45TBの大規模なテキストデータを事前学習します。これは、GPT-3の前バージョンであるGPT-2の事前学習に使用されるテキストデータが40GBであることを考えると約1100倍以上になります。また、GPT-3では約1750億個のパラメータが存在しますが、これはGPT-2のパラメータが約15億個に対して約117倍以上になります。このように、GPT-3はGPT-2と比較して、いかに大きなデータセットを使用して大量のパラメータで事前学習しているかということが分かります。 4.
3 BERTのファインチューニング 単純にタスクごとに入力するだけ。 出力のうち $C$は識別タスク(Ex. 感情分析) に使われ、 $T_i$はトークンレベルのタスク(Ex. Q&A) に使われる。 ファインチューニングは事前学習よりも学習が軽く、 どのタスクもCloud TPUを1個使用すれば1時間以内 で終わった。(GPU1個でも2~3時間程度) ( ただし、事前学習にはTPU4つ使用でも4日もかかる。) 他のファインチューニングの例は以下の図のようになる。 1. 4 実験 ここからはBERTがSoTAを叩き出した11個のNLPタスクに対しての結果を記す。 1. 4. 1 GLUE GLUEベンチマーク( G eneral L anguage U nderstanding E valuation) [Wang, A. (2019)] とは8つの自然言語理解タスクを1つにまとめたものである。最終スコアは8つの平均をとる。 こちら で現在のSoTAモデルなどが確認できる。今回用いたデータセットの内訳は以下。 データセット タイプ 概要 MNLI 推論 前提文と仮説文が含意/矛盾/中立のいずれか判定 QQP 類似判定 2つの疑問文が意味的に同じか否かを判別 QNLI 文と質問のペアが渡され、文に答えが含まれるか否かを判定 SST-2 1文分類 文のポジ/ネガの感情分析 CoLA 文が文法的に正しいか否かを判別 STS-B 2文が意味的にどれだけ類似しているかをスコア1~5で判別 MRPC 2文が意味的に同じか否かを判別 RTE 2文が含意しているか否かを判定 結果は以下。 $\mathrm{BERT_{BASE}}$および$\mathrm{BERT_{LARGE}}$いずれもそれまでのSoTAモデルであるOpenAI GPTをはるかに凌駕しており、平均で $\mathrm{BERT_{BASE}}$は4. 自然言語処理 ディープラーニング 適用例. 5%のゲイン、$\mathrm{BERT_{LARGE}}$は7. 0%もゲイン が得られた。 1. 2 SQuAD v1. 1 SQuAD( S tanford Qu estion A nswering D ataset) v1. 1 [Rajpurkar (2016)] はQ&Aタスクで、質問文と答えを含む文章が渡され、答えがどこにあるかを予測するもの。 この時、SQuADの前にTriviaQAデータセットでファインチューニングしたのちにSQuADにファインチューニングした。 アンサンブルでF1スコアにて1.
最近ディープラーニングという言葉をニュースや新聞で目にする機会が増えてきたのではないでしょうか。ディープラーニングとは、コンピュータ機械学習の一種です。 今後は様々な分野での活用が期待されています。当記事では、ディープラーニングの仕組みから具体的な活用事例まで、ディープラーニングについて幅広く解説します。 ディープラーニングとは?
1億) $\mathrm{BERT_{LARGE}}$ ($L=24, H=1024, A=16$, パラメータ数:3. 4億) $L$:Transformerブロックの数, $H$:隠れ層のサイズ, $A$:self-attentionヘッドの数 入出力: タスクによって1つの文(Ex. 感情分析)、または2つの文をつなげたもの(Ex. 自然言語処理 ディープラーニング python. Q&A) BERTへの入力を以下、sentenceと呼ぶ 。 sentenceの先頭に[CLS]トークンを持たせる。 2文をくっつける時は、 間に[SEP]トークンを入れ かつ それぞれに1文目か2文目かを表す埋め込み表現を加算 する。 最終的に入力文は以下のようになる。 > BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding, Devlin, J. (2018) $E$:入力の埋め込み表現, $C$:[CLS]トークンの隠れベクトル, $T_i$:sentenceの$i$番目のトークンの隠れベクトル 1.