Contents
テレビ用とYouTube用のラウドネス値の違いとは?
まずは簡単にテレビは-24LKFS
YouTube の ラウドネス値 は-14LUFS
ということになってます。
LKFSとLUFSは元々違った規格ではあったんですが現在ではルールがそれぞれに変わっていってほぼ同じっていうような単位なってると思います。
ただルールは変化していくものですしLKFSとLUFSが違ったようにこれからもまた違うことが生まれてくる可能性があります。
ですのでLUFS言われればLUFS、LKFSと言わわればLKFSと
先方の 言わわる基準にエンジニアはあわせてあげましょう。
知り合いのディレクターさんが広告代理店にピーピー言われて言われた様で今同じじゃん!
とぐちりながらまあその通りだなぁ。って笑ってました。
知らない人は 知らないし放送業界なら なおさら単位合わせて欲しい気持ちも分かりますね。
ラウドネス値っていうのは 人間の聴感上どれぐらいの音量に聞こえるのか?
というのを表している数値です。
人間には聞こえる周波数帯域、聞こえにくい周波数帯域、全く聞こえない周波数帯域。
と三つに分かれますがそれぞれ人間の特性を理解してそれに伴った音圧調整が求められています。
基本的にどの動物でもそうですけど同じ種類の動物の言葉は理解しやすいようにできてます。
これは母親や父親の声をしっかり聞けるような仕組みになってるんだと思います。
そうしなければオギャーと生まれた赤ちゃんが生き残るすべがないからです。
他にも地響きのような低い周波数帯域であったりよく昔から耳につく高い周波数帯域の危険信号を知らせる合図。
今では緊急地震速報とか聞いてみるとすごく嫌な感じがありますけど、
そういったことを命の存続という意味で聞こえやすい帯域聞こえにくい帯域が存在します。
音の世界ではそれを踏まえてバランスをとることそれがラウドネス調整です。
簡単に言えば聞こえにくい音はしっかり上げ聞こえやすい音は下げ人間の耳にバランスの取れた安定した音をルールの上で提供する。
これがラウドネス調整です。
従来のマスタリングとの違いはメディア対応してるか?
テレビならテレビ、YouTube なら YouTubeと それぞれの適正値がありますので
それに対応しているか対応してないか?
これが従来のマスタリングとの違いになります。
ですから順番としてはマスタリングして大きな ダイナミックレンジを確保して
もちろんできる限り SN 比(シグナルノイズ比)をよくして
簡単にいうと小さい音から大きな音までしっかりクリーンに収録することが必要です。
そして最終的には ラウドネス調整をして皆様にお届けすると。
そして届けられる音圧は当然メディアにもよって違います。
なぜメディアによって違うかと言うとお客様と言うかリスナーと言うか視聴者さん達が
聞いている環境が変わるからだと思います。
ヘッドホンする人もいればイヤホンする人もいる。聞こえる周波数帯域も
違います。
大きなステレオスピーカーで聞く人もいれば、ノート パソコンについたスピーカーで聞く人もいるしスマートフォンの小さなスピーカーで聞く人もいます。
配信元や広告代理店のルールに合わせるのが基本ですが、なぜそのようなルールがあるかと言うと元々はどういった環境で聞く人が多いっていう視聴者のリスニング環境によって
最適な音圧を決めてるわけです。
安定して全体に届けられるにはこの音圧がいいだろうと、チャンネルによって音圧もバラバラでない方がいいだろうと、規格ができユーザーがいてそれぞれの環境を踏まえてルールが決まってるんでそれに落とし込むと。
これは簡単に言うとネット上に必要な音圧とテレビでの音圧が違うことを意味してます。
どういうことかと言いますとテレビですと通常どれくらいのサイズでしょうか?
32型〜40型位が人気なのでしょうか?
大きいスピーカーで再生する音圧感はもちろんゆとりもありますし余裕もあります。
ですから簡単に言うと小さい音量でも十分に聞こえるということが起こります。
それに比べネットのコンテンツここでは YouTube をあげてますがこれに関しては一番はまずはスマートフォンでしょう。
スマートフォンのスピーカーとテレビに搭載されているスピーカーを比べれば一目瞭然じゃないですけどそれはもうテレビの方が大きい音が鳴りそうじゃないですか?
間違いないですよね。
そういったどのハードで再生されるか?と言う経緯もあり比較的スマートフォンでの再生の方がパワーが必要ということでネットでのコンテンツは-14LUFS
テレビでの統一音圧は-24LKFS(LUFS)にだいたいですが統一されてると思います。
難しいことは全くなくて細かくルールが決められてますが大きいスピーカーでは小さく安定した音スマートフォンみたいに小さなデバイスに積まれた豆粒みたいなスピーカーには大きい音の基準でルールが組まれてる。そう思ってもらえば概ね合ってると思います。
小さいものには大きい音、大きいものには小さい音でいい。真理でただただ普通ですよね。
DTMでのマスタリングからラウドネス調整とは?初心者でも簡単にできる方法とは?
昨今皆さんもチャレンジされてると思います。
DTM によるマスタリングですが
初心者に簡単にと言うと本当に難しい部分があります。
それは何故かと言うとマスタリングというのは音を最終パッケージにすることだからです。
それを各メディア用に調整していくのがラウドネス調整です。
多くの人に聞かせられる音に仕上がったのか?
配信なら配信でクリッピングしてないのか?トゥルーピークは大丈夫か?
推奨値にを満たしているか?
そのジャンルに適した処理をされてるか?
いろんなことを考える必要があります。
youtubeならリスナーは何を使って再生しているのかとか?
聞く人がやっぱりスマートフォン中心だったら簡単に言えば一番小さな端末になるので一番小さなスピーカーになります。しっかりとバランスよく音圧を上げる必要があると思います。
そしてさらにややこしくしてるのが今日お話ししてるラウドネス調整です。
音楽ファイルに関してもテレビの音声ファイルにしても規定、ルールがあります。
前回お話したように ラウドネス値の大きさは大きく分けて3種類あります。
まだ読んでない方こちら。
※https://www.kazunori-o-music.com/ja/mastering-order/(新しいタブで開く)
では簡単にマスタリングとは言い難いですが音声ファイルを用意しました。
どんな風にやってるか実際に流れを見てもらってでしょ初心者の方には参考にしていただければいいと思います。
まずよく見るじゃないですけど YouTubeというメディアでよくあるパターン。
iPhone で収録された音声をラウドネス調整するとっていうことです。
もう一つのファイルは僕がラジオ出演してたりした時や音楽番組を収録する形と言いますか、そういったファイルの処理をしていきたいと思います。
まず一つ目のファイル聞いてもらいましょう。
これはシンプルです。
iPhone で皆さんがよくやる自撮り風,だから手を伸ばしていっぱいのところで音声収録したものです。
それをシンプルにラウドネス処理だけをしたものです。
※
次ですが普通にマイクを使ってプリアンプ EQコンプで収録して
プラグイン処理して-14lufsにしたものです。
※
マスタリングのできる普通の基準でお話ししていこうと思います。
マスタリングというと音圧あげるだけというような感じでしょうが
色々なことに気をつける必要があると思います。
色々な条件が必要だと思いますけど機材の点からも意識の点からもお話ししていけたらと思います。
マスタリングですが先ほども申し上げた通り音を扱う頂点だと思います。
僕にとってはそういう認識です。
皆さんはどうでしょう?
MAもそうですが パブリッシングする時に発表していいものが取れているのか?
発表するべき音で収録できているのか?
機材面ですとまずは三種の神器じゃないですけど DTM ソフトとオーディオインターフェイス(これはデジタルアナログ変換するものです)それとスピーカーですね。
まずは簡単に紹介しましょう。
まずは DTM ソフトから行きましょう。
僕も本当にたくさん使ってきました。僕が使用経験あるもので 今現行でも使うようなものをあげてきたいと思います。
※まずはstudio one プロフェッショナルモデルです。
基本的に例えば Cubase にしてもいろいろなバージョンがあります。
そしてマスタリングに特化機能がついてるものは必ず最上位モデルです。
presonus studio oneにも同じように無料で使えるようなプライムからアーティストモデルさらにプロフェッショナルモデルとどのソフトも大体3種類ぐらいモデルが出てます。
その中でマスタリング機能や例えば CD を焼くときのような DDPだったり、BWFファイルのチャンクといわれるものにも対応してます。
それこそYouTube ようだったり 他のメディア用に今日お話ししてるラウドネス調整機能があるようなモデルはどの DTM ソフトでも最上位機種になります。
今回僕がお勧めするのは presonus のStudio oneのプロフェッショナルモデルです。
steinberg Cubase ですと wavelabと言って ラウドネス調整用だったらそれこそマスタリングできるようなモデルは別に用意されてるんです。ですから逆に曲作りからミキシングそして最終的にマスタリングまでしてさらにラウドネス調整を考えるとしっかり音質も担保され
さらに動作は Cubase と比べて軽いと思います。
そして1パッケージですべてがそろう。
どのみちじゃないですけど色々な vst プラグインだとかオーディオユニット(AU)
だったり、同じマキシマイザーでもこっちの方が好きとかこっちの方が嫌いとか
音はこっちが好きだけどとかそういったことも出てきますんで、
それも踏まえて使いやすさと拡張性そういったあらゆる面で
Studio One Professional はお勧めできます。
僕はラジオ10年ぐらいパーソナリティーとして収録したものを納品してたんですが
その時も最終的にはStudio oneで焼いたものを持ち込んでました。
今はオンライン納品になってますね。
最高です。
cubase studio one 実はどちらも steinberg 社のエンジニアですよね?
以前そんな話を聞いた覚えがあります Cubase から独立したエンジニアが Studio One presonus を作ったと言う話をメーカーから聞いたことがあります。
ソフトによってはもともとMIDIが強いソフトだったりオーディオが強いソフトだったり
色々ありましたがこのソフトはどちらも強いと思います。
使いやすく拡張性もあり音も良くプロレベル
業務用としても使えますし 安定性もあります。
使ってる時にすぐ落ちちゃうとか他のメーカーでもあると思うんですけど推奨してる OS が
ごくごく限られててOSアップデートかけると使い物にならなくなるソフトとか
そういうのも実際あると思うんですが、
僕がこの10年ほどですかね Studio One ver2 から使ってますが問題なく安定して成果を出せるソフトとしてお勧めします。
二つ目ですがオーディオインターフェイスを選ぶ際僕が注意してること
ですね。
初心者には敷居が高い感じもするんですけど僕がどういう風に選んでるかご参考に自分のスタイルに合うオーディオインターフェイスを使ってもらえればいいと思います。
僕が重要視してるのはま簡単に言えば音質なんですけど皆さんもそれはそうだと思いますよね?
ただそういった中でもマスタリングっていう作業をする場合
クリーンなインプットが必要なんです。
そして歪みのないこと。
AD/DA(アナログ/デジタル)の変換がとにかくきれいなこと。
たとえば僕が使う AKAI の MPC X というモデルで紹介していきます。
※写真
あまり気にしてる人がいないかと思うんですけど音響とかやってるとどうしてもダイナミックレンジとか SN 比ですとか THD Nとかの数値は気になります。
その数値を挙げていきます。
MPC X スペック
ダイナミックレンジ | 112 dB (A-weighted) |
SN 比 | 111 dB (1 kHz, +4 dBu, A-weighted) |
THD+N | 0.003% (1 kHz, +4 dBu, -1 dBFS) |
簡単に言うとダイナミックレンジというのは小さい音から大きい音までしっかり収録できるということです。
現在だと100デシベル超えるとかなり良い数値だと思います。
同様に SN 比これはシグナルノイズ比と言って音声信号に対してどれほどのノイズが乗るかっていう数値になります。
大きい数字の方がこれもいいです。かなりプロフェッショナルな数字だと思います。
そして最後の THD+Nですがこれは音声信号の歪みを表す数値になります。
様は取り扱う音源がどれだけ歪んでしまうかって言うことです。
これは小さければ小さい方がいいです。
これもだいぶいい数字だと思います。
こういったようにオーディオインターフェイスにはアナログデジタル変換するときのノイズレベルや音声を取り扱える幅、そしてその音声を取り扱う時に極小の歪みで済む かどうかの数値が表されてます。
食品と一緒でどういった原材料でできてるかっていうのを表記してるのと似てます。
数値だけで見ても心躍るってことはない人が多いのが普通ですけど、僕はダイナミックレンジ100dB超えるのは絶対条件だったんでMPCスタイルで見つけられた時は心踊りました。マスタリングする際には自分の曲だったらまあ百歩譲ってノイズレベルが高かったりしてもいいかもしれないです。
そのノイズの質にもよりますし。
ただ人の曲を扱うとなるとダイナミックレンジを狭めたり サーっていうような音がのってしまったりオーディオインターフェイスを通すことによって位相が悪くなるとかそういったことを避ける必要があります。
ですので他にもこういった数値を出せるようなインターフェイスはたくさん出てると思いますが、なんちゃってマスタリングじゃない限り必要なことだと思います。
これらの数値はやはり良いに越したことはないものだからです。
上記(Studio one ProfessionalAKAIMPC X)の2点の組み合わせで入力は64bit float の96kHzまで対応できます。
書き出しは64bit float192kHzまでいけます。
あまり使用する機会も今はまだですが高音質はどこまで 行けても損はないですし、コンバートさえ気をつけていれば有利であることにかわりはないでしょう。
※オーディオ写真
最後にスピーカーをお勧めします。
もうこれはシンプルです。
リーズナブルでフラット特性でかなりお買い得なモデルが出てますね。
僕がオススメするのは YAMAHA の HS7かHS8です。
※写真
これより上のモデルもたくさん出てますがリーズナブルで信頼性があり、
さらに重要なのは安定性と壊れたときの代用がすぐ手に入るか?
これはすごく重要で明日使うとなった時に使えないってことがあっては本当にならないんです。
そういった意味でももし壊れてもすぐに交換修理とか対応してもらえるのはやはり国内は強いと思います。
もう一つの理由として このモデルは会話がしやすいと思います。
いろんなエンジニアだったりいろんなアーティストの方だったり
手に入れやすいモデルですので持ってる人も多いでしょう。
ですからそういった人と音の打ち合わせがしやすいでしょう。
コミュニケーションがしやすいことはかなりの正義だと思います。
そして HS 7以上をおすすめするのは至ってシンプルなんですが
4弦のベースの開放のEの音
これが多くの曲で最低の最低っていうのは最悪ってことではなくて最も低い音
周波数帯の低い音ですけどそれが41Hzとかそれぐらいなんです。
そういった意味だと HS 5だと足りないんで音の確認ですとか包装用の音声をの確認は先に挙げたモデルを使用した方が音は見えやすいんじゃないかなと思います。
周波数特性を見れば分かると思いますが HS 7からフラット特性が上がっていくと思います。
他にも押さえておきたい例えばプラグインなんかもありますが簡単にだけ紹介します。
※softube weiss シリーズです。
※マイク収鈴音声はweiss のMM1 を使ってます。
見たこともある人が多いとは思うんですけどDS1-MK3は特に有名ではないでしょうか?
これはマスタリングスタジオにハードとして結構ラックされてるものになると思います。
それをプラグイン化したものになります。
定番のプラグインですね。
僕はすべてコンプリートしてますが気に入ってるのは特に EQ1です。
Fabfilterと競合になるとこだと思うんですが、
僕はこちらの方がお気に入りです。
なぜかと言うととても綺麗なEQだからです。
本当に位相が綺麗で イコライジングしても音が乱れにくいです。
音はクリアで硬くて カチッとしたタイプではありますが、
すごく音楽的だと思います。
デジタル化して少し使いにくい部分は実際あるんですが完璧な plugin なんてないですから、そしてその使いにくさを含めても結局使ってしまう EQ として僕にとっては一番手二番手のプラグになります。
もちろんアナログ感を付加するタイプではないんですがweissの音そのものが良いという感じです。
ハイセンスな音だと思います。
ラウドネス値を理解するために必要なこととは?
ラウドネス値というのは人間の耳にどう聞こえるかということですので人の耳で確認します。
※等ラウドネス等化曲線というものをご存知でしょうか?
これは音の高さ、周波数帯域によって人がその音をどう認識するかといった指標があります。
何度も書いてるようですが大事なことですのでしっかり認識をしておく必要があると思います。
メーターが同じだけ触れれば音量が同じだと思ったら大間違いです。
ですからちゃんと耳で聞いて音のバランスを判断することが一番ベーシックで近道です。
よくいろんなメータリングできるものスパンプラスですとかビジュアル的に判断できるアナライザー 、スペクトラムアナライザーでよくミキシングについて説明してる方もいらっしゃいますが それよりも大事なこととして 等ラウドネス曲線を理解した方がいいと思います。
なぜかと言うとスペクトラムアナライザーで合わせたものは等ラウドネス曲線と だいぶ違った結果になると思います。
音楽聞く人が放送を聞く人がラジオテレビ色々ありますけど誰がスペクトラムアナライザーを見ながら音を楽しむんですか?
その音そのものを聞いていいとか悪いとか判断するんです。
自分の耳で判断することが一番重要だと思います。
そして耳では分からない所例えばこの音楽ファイルはトゥルーピーク-1dB 以下になってるかどうかなんて分からない所は分かりませんから。
そういったことを測るのがラウドネスメーターです。
YouTube用または民放連が推奨するテレビ用のラウドネス値を測定する方法とは?
ラウドネスメーター を使うということです。
※前回もお話しした フリーのメーターもありますが
https://www.kazunori-o-music.com/ja/youtube-normalization-loudness-meter-free/(新しいタブで開く)
実際にはもっとパッと ラウドネス値を調べる方法もあります。
例えば先ほども紹した presonus studio one Professionalではアルバムを作る時のprojectファイルというものがあり、その中で計測すれば1曲を10秒から30秒ぐらいでインテグレイテッドのlufsも計算してくれます。
(使用しているプラグインの数や重さにもよります)
※写真
他にもizotope RXでは書さ出したファイルのトゥルーピークやピーク割れ(クリップ)や
オーディオファイルの統計情報を見たりノイズ処理はもちろん、ラウドネスの値もintegratedからmomentary short termで見ることもできます。
※写真
他にもnugen Audio Mater check proでは
リアルタイムでLKFSを見ながら ストリーミングサービス用に有料会員や無料会員の音質の違いによってクリッピング発生してないかチェックできます。
一番クリッピングが発生しやすいのは高音質(例えばハイレゾ)から通信が最も弱い音質的に不利な無料会員用にコンバートされた時ですので通信が強くない環境で音質を保証するプラグインだと思います。
※
マスタリングにおけるラウドネス値の重要性とは?
ラウドネス値を守らないとどういう事が起こるのか?
簡単に言えば 納品できないか、AI による補正が入るということです。
先ほどもお話ししました通り各配信先には推奨ラウドネス値があったり
テレビ放送でもラウドネス値による規制が入ってます。
テレビ業界ではAIを使って補正することは今のところないと思いますが
YouTube や他の配信先例えば Spotify ですと先ほども紹介した通り
推奨値があります。なぜAIによる補正があるにもかかわらず
指定のラウドネス値で納品することを推奨してるんでしょうか?
音楽的ではないことが行われてるとそういうことだと思います。
僕も調べてみましたが AI による補正は何も知らない人によっては便利ですが
知っている人からすると嫌な感じの音がすると思います。
ここに AI による補正はどういった感じかわかりやすいようにかけます。
音楽的であるかそうでないかはご自身の耳で判断してみてください。
※
特に反射率の高い音が分かりやすいです。
シンバルやハットとかです。ただ他社のAIのコントロールができなくて前に出せませんでした。
すいません。雰囲気は感じとれると思います。
参考になればと思います。
ラウドネス値を上げる方法とは?下げる方法とは?
ラウズネス値を上げる方法は基本的に音を叩くこと、圧縮をかければ音圧の平均値が上がります。でもその時に注意しなければいけないことがあって特にトランジェントと 圧縮後のリリースタイムです。
トランジェントっていうのは音の立ち上がりです。
いろんな方法がありますが例えばパラレルでコンプをかければアタックを潰さず音圧感を増すことができます。
この方法は有効で 簡単に繋げる一つの手段だと思います。
そしてダイナミックレンジを確保する方法のひとつだと思います。
ただし注意しなければいけないのは音圧を上げすぎた時にベース音から消えていくことです。
等ラウドネス曲線を見てもらうとよく分かるんですが特にベースの音は人の耳には効きにくく全体の音圧を上げることでベースが聞こえるためのスペースと言うか ダイナミックスが取れなくなるんで ハードな音楽であればあるほど音圧あげたくなりますがそしてエンジニアも人の言うことをそのまま聞いてしまうような人のいい人達ばかりですのであげれるところまであげがちですが実のところ低音がスカスカになっていくっていうジレンマが発生してるところでもあります。
だからこそのスラップ奏法が生まれたような気もします。
音圧上げれば上げるほどベースの低音が薄くなって結局 他の音の帯域に顔を出しに行くって言う、それでベースの存在感を増すって言う歴史的背景が面白いですね。
ラウドネス値が高すぎると問題が起きる?そのリスクとは?
これはすごく分かりやすいです。ラウドネス値が高すぎると 配信や YouTube 動画に関して言えば予期せぬリミッターや音楽に悪影響を及ぼすと思います。
どこで AI がどんな処理をするのか聞いてみましょう。
逆にこれだけは手を抜けないっていうことですね。
とまあこういうことです。これがいいのか悪いのか音楽にとっては僕にとっては気持ちよくないです。自分が一生懸命作って曲の構成考えてレコーディングしてミキシングしてマスタリングして適正な ラウドネス値であげられないっていうことはそのその過程の全てを壊しかねない処理をされると思ってます。
だから前回お話しした Spotify のアーティストヘルプにも書いてあるように各配信サイトで推奨値があります。
それは前述で書いた通り配信サイトの多くは-14LUFSを推奨してますが逆になんでこの値が推奨される値だっていうふうに考えたことありますか?
なぜアーティストにこれぐらいの音圧感であげてくださいなんて言うんでしょうか?
AI でのラウドネスノーマライゼーションがここまで行き渡ってるのに
なぜ配信サイトがわざわざAIによるラウドネスノーマライゼーションの影響を受けない値を
推装してくるんでしょうか?
なぜ推奨値なんてあるんでしょうか?
だって本当のところ言えば AI がしっかり機能してるようであればそしてそれが音楽的であればどんなボールが投げられても大丈夫なはずですよね?
ですが現在として多分エンジニアの全員が全員ラウドネスノーマライゼーションによる音圧補正はだいたいが嫌ってると思います。
あまり強い言い方できないですけど推奨ラウドネス値っていうのはラウドネスノーマライゼーションを避けれる値なんですよね。
AI によって補正されない値それが推奨値なわけです。
だから配信先の総意としてはラウドネスノーマライゼーションをかけてます。
ただこの音圧に関してはラウドネスノーマライゼーションをかけませんよ。
そしてその値が推奨値です。
という 訳です。
テレビ業界ではもっとシンプルで、放送できませんって言って突き返されるものなんですけど、ネット業界ではユーザーの間口増やすためが多いんでしょうね。
このlufs以外は自動調整かけます。
これがいいのか悪いのか分からないですけどレコーディングエンジニア、ミキシングエンジニア、マスタリングエンジニア、 MA 、アーティスト、音に重きを置いてる人たちからは自動補正の音が嫌われてるのは事実だと思います。
すごくいい音で補正してくれるんでしたら全員が全員喜ぶんですよ。
でも実際のところはさきに聞いてもらった通りそういうことです。
ラウドネス値を調整することで得られる効果とは?
ラウドネス値を調整することで得られる効果これはもう自分の意図した音で音声を流せるってことです。
この一言に尽きます。邪魔されない。加えられない、引かれない。
最高じゃないですか?
音楽家の方は作曲家の方もいろいろ工夫してますよね?
いいマイクプリ、いいマイク、いい楽器、ダイナミックレンジの広いコンソール級のオーディオインターフェイス。
ツールはいくらでもあります。
いろいろ気遣っていいマイキングして 収録された音が AI によって 何かグニングニンさせられて音質も悪くなって残念なりますよね?
よく写真のサンプルを見せる人も YouTube でどこまで伝わるかわからないですけど前置きしてるようにせっかく音楽が24ビットでこれでハイレゾだ!でアップしても
結局のところ現在では首をかしげる音質で再生されるっていう。
ラジオは公共放送のルール守ってなければ放送されないですからそして煩わしい AI による補正もなしとつまり意図した音質で流せるわけですね。
自分の意図した音質クオリティーで YouTube なら YouTube で tiktok なら tiktokで 流せるということです。
これが1番のメリットであり、 テレビやラジオ放送ではあたり前のルールであり、実は番組がおもしろい、おもしろくないより前のただの放送の常識なのです。
放送にはたった2つしかありません。人間の五感に真に訴えるもの。
視覚、聴覚、触覚、嗅覚、味覚。
放送されるのは視覚と聴覚です。
逆にこれだけは手を抜けないっていうことです。