ai_math_runningのブログ

最近はAI関係の記事が多い予定です。一応G検定持ってる程度の知識はあります。

ChatGPTに統計学を教えてもらったら?

GPT-4が発表されたばかりで間が悪いのですが、
(GPT-4は学問領域の応答能力が大幅に向上したそうで)
ChatGPTに統計学を教えてもらった結果を記事化しようと思います。
統計学にしたのは、私が多少勉強していて、ある程度、正確性を判断できる分野だからです。

(私)

推測統計について教えて。
不偏分散はどうしてn-1で割るの?

「推測統計」って用語を書いてる時点で分かってる人間ですよね。
まぁ、不偏分散がなぜn-1で割るか、というのは典型的な統計の分かりにくい所なので、まずはここを質問、と。


(ChatGPT)

推測統計において、標本から母集団の性質を推測するために様々な統計量が使われます。その中でも、不偏分散は標本分散の一種で、母集団の分散を推測するために使用されます。

不偏分散は、標本の値と標本平均との差を2乗して平均した値であり、以下の式で計算されます。

s^2 = Σ(xi - x̄)^2 / (n - 1)

ここで、xiは標本の値、x̄は標本平均、nは標本サイズを表します。

この式において、分母にn-1を使う理由は、標本が母集団全体を完全に代表しているわけではないため、母集団の分散を正確に推測するには、標本のサイズを1少なくしたn-1で割る必要があるからです。

例えば、標本サイズが小さい場合、標本平均が母集団平均と比べて大きくなりがちです。この場合、分母にnを使ってしまうと、不偏分散が小さく推定され、母集団分散を過小評価することになります。n-1で割ることで、不偏分散が母集団分散をより正確に推定することができます。

う〜ん。色々とツッコミどころがあるなぁ。まぁ、順を追って突っ込んでいきますか。
まず、基本的な所を追加して質問してみましょう。


(私)

どうもありがとう。いくつか分からない事があるので追加で教えて。
まず、母集団って何?

まず、ここを聞くでしょう。

(ChatGPT)

母集団とは、統計的な解析対象となる全体の集合を指します。例えば、ある製品を生産する工場での製品の品質について統計的な解析を行う場合、その工場が製造するすべての製品の集合が母集団に相当します。

しかし、母集団全体を調査することは、実際には困難であり、コストがかかるため、通常は母集団の一部である標本を調査することが一般的です。このため、標本から得られた統計量(平均や分散など)を用いて、母集団の性質を推測することが目的となります。

なお、母集団は時には「ポピュレーション (population)」とも呼ばれることがあります。

ま、ここは良いですね。最後の一節はいるかなぁ? 
ちょっと説明が足りないと思うので、追加して質問してみましょう。

(私)

ありがとう。まだまだ分からない事がいっぱいあるから教えて。
どうして統計から得られた統計量から母集団の性質を推測する事ができるの?

良い質問ですねw

(ChatGPT)

統計から得られた統計量を用いて、母集団の性質を推測する理論的根拠は、大数の法則中心極限定理に基づいています。

まず、大数の法則は、「標本平均は、標本サイズを大きくするほど母集団平均に収束する」という法則です。つまり、標本サイズを十分に大きく取れば、標本平均は母集団平均に近づくということです。このため、標本から得られた平均値を母集団平均として使うことができます。

また、中心極限定理は、「標本平均は、標本サイズが大きくなるにつれて、正規分布に従う確率変数に近づく」という法則です。この定理により、標本平均の分布が正規分布に近づくため、正規分布の特性を用いて、標本から得られた統計量から母集団の性質を推測することができます。

このように、大数の法則中心極限定理によって、標本から得られた統計量を用いて、母集団の性質を推測することができる理論的根拠があります。ただし、標本の選び方や標本サイズ、統計手法などによって、推測結果が異なる場合があるため、注意が必要です。

ここは良い説明ですね。
それで、さらに追加に質問してみます。

(私)

ありがとう。まだ分からない事があるから教えて。
標本サイズを大きくすれば推測できる、という事だけど、どれくらい大きくすれば良いの?
その目安はあるのかな?

これも典型的な初学者が気になる所ですね。「十分に大きくすれば」って漠然と抽象的に言ってるけど、具体的にはどれくらい大きくすれば良いのって。

(ChatGPT)

標本サイズを大きくするほど、推測精度は向上しますが、どれくらいの標本サイズが必要かというのは、具体的な状況によって異なります。

一般的に、標本サイズが小さい場合は、推測結果の信頼性が低くなる傾向があります。そのため、一般的には、標本サイズが30以上ある場合は、比較的信頼性の高い推測結果が得られるとされています。ただし、母集団の分布や特性、統計的手法などによっても異なりますので、必ずしも30以上であれば良いというわけではありません。

また、推測精度を高めるためには、標本をランダムに抽出し、標本サイズを十分に大きくすることが重要です。ランダムに抽出しないと、母集団を代表する標本を得ることができず、偏った結果が得られる可能性があります。

以上のように、標本サイズが十分に大きく、ランダムに抽出された場合には、比較的信頼性の高い推測結果が得られるとされていますが、具体的な目安は状況によって異なるため、注意が必要です。

30って具体的な数字が出てきましたね。でも良いのかな?
ちょっと突っついてみますね。
(ちなみに、サンプルのバラツキが小さければもうちょっと少なくても大丈夫です。
 その辺りは正規分布を仮定して良いなら、正規分布を元に、ある確率範囲内での値の範囲を計算できる、
 というのが正確な答えになるかな。)

(私)

ありがとう。まだ分からないので教えて。
標本サイズが30以上でも良くない場合はどんな場合があるの?

(ChatGPT)

標本サイズが30以上であっても、以下のような場合には十分な精度の推測が得られない可能性があります。

  1. 母集団が非常に偏っている場合:母集団が非常に偏った分布をしている場合、標本サイズが30以上であっても、偏りによって推測精度が悪くなることがあります。この場合は、母集団の偏りを考慮したサンプリングや分析が必要です。
  2. 母集団が分散が大きい場合:母集団が分散が大きい場合、標本サイズが30以上であっても、母集団分布を正確に推測することが難しくなります。この場合は、標本サイズを大きくしたり、推測手法を工夫する必要があります。
  3. 標本自体がバイアスを持つ場合:標本自体が偏っていたり、ランダムに抽出されていなかったりする場合、標本サイズが30以上でも正確な推測ができません。この場合は、より適切なサンプリング方法を採用する必要があります。
  4. 推定する母集団パラメータが複数ある場合:母集団のパラメータが複数ある場合、標本サイズが30以上であっても、正確な推定が困難になることがあります。この場合は、適切な統計手法を選択する必要があります。

以上のように、標本サイズが30以上であっても、様々な要因によって推定精度が低下する可能性があるため、慎重な分析が必要です。

ちょっと説明するために新しい用語が入ってくる感じですねぇ。不親切な気もしますが、質問を重ねてみましょう。

(私)

ありがとう。まだ分からないから教えて。
母集団の偏りを考慮したサンプリングや分析はどんなものがあるの?

上の答えの1つ目の事項について、さらに説明を求めてみます。

母集団の偏りを考慮したサンプリングや分析には、以下のようなものがあります。

  1. 層別抽出(stratified sampling):母集団をいくつかの層に分け、各層からランダムサンプリングする方法です。層別抽出は、母集団の偏りを反映するように各層を設定することで、より正確なサンプルを得ることができます。
  2. クラスター抽出(cluster sampling):母集団をクラスターに分け、ランダムにいくつかのクラスターを選択し、それらから全ての要素をサンプリングする方法です。クラスター抽出は、母集団の偏りを反映するようにクラスターを設定することで、より正確なサンプルを得ることができます。
  3. 重点サンプリング(stratified random sampling):母集団内の特定の部分集合に焦点を当て、その部分集合からのサンプリングを優先する方法です。例えば、製品の欠陥率を推定するために、不良品の数が多い地域からのサンプリングを優先することができます。
  4. 統計的処理(statistical adjustment):母集団の偏りを反映するために、サンプルの結果を調整する方法です。例えば、層別抽出を行った場合、各層のサンプルサイズに応じて加重平均を計算することができます。

以上のように、母集団の偏りを反映するようなサンプリング方法や、統計的処理を適用することで、より正確な推定が可能になります。

これはまぁ、こんなもんで良いか。
じゃぁ次の質問。

(私)

ありがとう。まだ分からないから教えて。
分散が大きい場合だけど、どれくらい大きさまでなら30で十分と言えるの?

2つ前の答えの、2つ目の事項について、さらに説明を求めてみます。

(ChatGPT)

分散が大きい場合、標本サイズが30では十分ではない場合があります。これは、標本サイズが小さい場合、標本平均が母集団平均に近づかないことがあるためです。

分散が大きい場合、標本サイズがより大きくなければならないことがあります。一般的には、分散が大きい場合でも、標本サイズが100以上あれば、標本平均が母集団平均に近づくことが期待されます。

ただし、実際には、分散が大きい場合でも、標本サイズが30で十分な場合もあります。これは、母集団分布が正規分布に近い場合や、標本の大きな外れ値が存在しない場合に限られます。

したがって、標本サイズが十分かどうかを判断するには、母集団の分布や標本の特性などを考慮する必要があります。一般的には、標本サイズが大きいほど正確な推定が得られる傾向があります。

いや、だからぁ、そういう漠然とした事を聞いたいんじゃないのよ。
「どれくらい大きさまでなら」って聞いてるじゃん。
ちょっと質問を変えてみますか。

(私)

ごめんなさい。分からなかった。
分散の大きさから標本サイズが十分かどうかを判断するための具体的な方法が知りたいんです。

(ChatGPT)

すみません、回答が不十分でした。標本サイズが十分かどうかを決定するためには、次の手順に従うことができます。

  1. 標本平均 \bar{x} と標本標準偏差 s を計算します。
  2. 母集団の分布が正規分布に従うと仮定します。これは、標本サイズが十分に大きい場合に成立することが多いです。この仮定に基づいて、標本平均 \bar{x} が母平均 \mu からどの程度離れているかを、次の式で求めることができます。 z=\frac{\bar{x}-\mu}{s/\sqrt{n}} ここで、n は標本サイズです。
  3. z 値が1.96より大きい場合、または-1.96より小さい場合は、有意水準\alpha=0.05 で、母平均と標本平均が有意に異なると判断できます。

つまり、|\bar{x}-\mu|>1.96(s/\sqrt{n}) の場合、標本サイズが十分ではないと考えることができます。

この手順は、中心極限定理に基づいており、母集団が正規分布に近似する場合に有効です。しかし、母集団が正規分布に従わない場合や、標本に外れ値がある場合には、この手順は不適切です。このような場合は、別の方法を使う必要があります。

いきなり数式がバリバリ出てきましたね。微妙に違ってる気もするけど(標本標準偏差を使う場合は正規分布じゃなくてt分布だから1.96じゃなくて、その数字はサンプル数により微妙に違うけどサンプル数30なら自由度29で2.045になる、とか)細かな違いなので、これ以上は突っ込まないでおきましょう。ひとまずは、具体的に計算する方法を説明してきたので。

(私)

ありがとう。もうちょっと教えて。
母集団が明らかに正規分布ではない場合は、どうすればいいのかな。

とりあえず、上記回答は「母集団の分布が正規分布に従うと仮定」した場合なので、そうじゃない場合を聞きましょう。
(しかし「標本サイズが十分に大きい場合に成立することが多い」ってのもどうかなぁ。母集団が正規分布かどうかと標本サイズは無関係なんだけどな。標本平均が正規分布に近づくか、は標本サイズ次第だけども。その辺も不正確なんだよなぁ。)

(ChatGPT)

母集団が正規分布に従わない場合、標本サイズが十分であっても中心極限定理が成立しないため、先程の方法を使うことはできません。

そのような場合は、母集団の分布を推定するための非母集団パラメトリック法や、データ駆動型のノンパラメトリック法が使われます。以下にいくつかの例を挙げます。

  • ブートストラップ法:この方法では、標本から復元抽出を繰り返し行い、標本平均や標本分散などの統計量を計算します。これらの統計量を用いて、母集団の分布を推定します。
  • カーネル密度推定法:この方法では、標本から推定された密度関数を用いて、母集団の分布を推定します。カーネル密度推定法は、非母集団パラメトリック法の一つであり、特定の分布に依存しない方法です。
  • ウィルコクソンの順位和検定:この方法は、データの分布に関係なく、2つの標本間の差を検定するために使われます。標本が正規分布に従わない場合に有効な方法です。
  • クラスタリング法:この方法は、データのパターンや分布を自動的に抽出する方法です。非階層的クラスタリング法の一つであるk-means法は、クラスター数を事前に指定する必要があるため、適切なクラスター数を決定するために検証が必要です。

これらの方法は、母集団の分布を推定するための一例です。適切な方法は、データの性質や目的に応じて選択する必要があります。

中心極限定理は母集団が正規分布でなくても成立するはずですけどね。それはそうと、不偏分散の問題からどんどんズレてきてるので、この辺で収めましょう。
ついでなので、参考図書でも聞いてみますか。

(私)

ありがとう。いっぱい新しい手法が出てきたんだけど、これらの手法を勉強するための良い本はあるかな。

(ChatGPT)

統計解析や推測統計の手法について、入門書から応用書まで多数の書籍が出版されています。以下にいくつかのおすすめ書籍を紹介します。

  1. 統計学入門』(東京大学出版会、松田昭治著):統計学の基礎から、確率分布、推測統計、回帰分析まで、わかりやすく解説された入門書です。
  2. 『基礎統計学』(東京大学出版会、桜井和夫著):統計学の基礎から実践的な問題まで、体系的に解説された教科書です。
  3. 統計学』(東京図書、石原正俊著):統計学の基礎から、実践的な応用まで、包括的に解説された大学の教科書です。
  4. 『データ解析のための統計モデリング入門』(森村 修一、田村 優子著、共立出版):統計モデリングの基礎から実践的な問題まで、体系的に解説された教科書です。
  5. 『Rによるやさしい統計学』(技術評論社、奥村晴彦著):Rを用いた統計解析の入門書です。基礎から応用まで幅広くカバーしており、実践的な問題も多数取り上げられています。

これらの書籍は、統計学の基礎から実践的な問題まで幅広く解説されており、初心者から上級者まで、さまざまなレベルの人々にとって役立つと思われます。また、統計解析においては、実際に手を動かして学ぶことが大切なため、実際にデータを用いた演習問題が多数ある書籍がおすすめです。

ん? 調べてみたけど、著者とか出版社とか出鱈目じゃない? なんだこれは?
ちょっと聞き直してみる。

(私)

ありがとう。ブートストラップ法、カーネル密度推定法、ウィルコクソンの順位和検定、クラスタリング法について勉強したいんだけど、上記の本はこれらの手法について詳しく勉強できるのかな。勉強できないなら、勉強できる本があったら教えて。

(ChatGPT)
>>
Pythonによる統計分析入門」と「統計学入門」は、それぞれブートストラップ法、カーネル密度推定法、ウィルコクソンの順位和検定、クラスタリング法などの手法について詳しく説明しています。特に、「Pythonによる統計分析入門」はPythonを用いた実践的な解説が豊富で、手法の理解と実践に役立つでしょう。また、「Rによる統計学入門」もRを用いた実践的な解説が豊富で、手法の理解と実践に役立つでしょう。これらの本は、統計学の初学者から上級者まで幅広い層におすすめできる本です。<<

Pythonによる統計分析入門」という本は確かにありますね。
Pythonによる統計分析入門 | 山内長承 | 経済学 | Kindleストア | Amazon
でも、目次とか見たところでは、この内容が書かれてはなさそうに見えます。
統計学入門」は該当する本が多過ぎて分かりません。
「Rによる統計学入門」という本もない(微妙にタイトルが違う本はいくつかある)ので、どれを指しているかは分からないです。

という事で、ChatGPTが出してくる参考図書については、かなりいい加減だぞ、という事で、先に進もうと思います。


>>
ありがとう。検討してみる。
最初の不偏分散の話に戻るけど、不偏分散の「不偏」ってどういう意味かな?<<

不偏分散の「不偏」とは、標本から求めた分散が母集団分散を推定するために、バイアスがない(無偏)推定量であることを示しています。つまり、標本から求めた分散が、母集団分散の真の値に近づくように調整されているということです。このように不偏分散は、標本から求めた分散を母集団分散の推定に使用する場合によく用いられる推定量であり、標本サイズが大きくなるにつれて、より正確な推定量となります。

あれ? 何かおかしいですね。不偏性と一致性を混同しているみたいですね。
(参考)
bellcurve.jp

ちょっと、どう誘導したら良いか分からないんですが、ちょっと頓珍漢な質問で誘導してみましょうか。

えっと、ちょっとよく分からないんだけど、標本サイズが大きくなったらnの大きくなるから、nとn-1の差も小さくなると思うんだけど。だから、標本サイズが大きくなるほどn-1にしなければいけない理由が減るんじゃないのかな。

確かに、標本サイズが大きくなるほど、nとn-1の差が小さくなるため、標本分散を不偏分散で補正する必要がなくなるという意見もあります。しかし、不偏分散を使う主な理由は、標本分散が母集団分散を過小評価する傾向があるからです。

標本分散は、標本から求めた値であるため、母集団分散よりも小さくなる可能性があります。この場合、標本分散を母集団分散の推定量として用いると、母集団分散を過小評価してしまうことになります。不偏分散は、このような過小評価を防ぐために、標本サイズを考慮した補正を行うことで、母集団分散の推定により適切な値を得ることができます。

つまり、標本サイズが大きくなることで、不偏分散の補正が必要な場合が減るということはありますが、不偏分散を使う主な理由は、過小評価を防ぐためであるということです。

う〜ん、どうして「過小評価」する傾向がでるのか、の説明がないですね。
まぁ、その説明として冒頭で不正確な事を言ってしまってるので、そっちの方を突っついてみましょうか。(上の方の回答で緑に色を変えた部分)

ありがとう。また戻るけど、最初に、標本サイズが小さい場合に標本平均が母集団平均より大きくなりがちだと教えてもらったんだけど、標本平均って、母集団平均を予測するのに使うのなら、大きくなっちゃうと困るんじゃないかな?<<

確かに、標本平均が母集団平均よりも大きくなりがちだということはあります。しかし、標本平均が母集団平均よりも大きくなる傾向があることは、標本平均が母集団平均を予測する際に問題となるわけではありません。

なぜなら、標本平均は母集団平均を予測するための1つの推定量に過ぎず、標本平均だけでなく、他の統計量や手法を使って推定を行うことができます。また、母集団分布が正規分布に従う場合、中心極限定理によって、標本平均は母集団平均に近似することが期待されます。

つまり、標本平均が母集団平均よりも大きくなる傾向があることは確かにあるものの、統計的には問題とならず、標本平均を含めた複数の推定量や手法を使って、より正確な予測を行うことができます。

標本平均は大きくなるけど、他の統計量で補正できる? 聞いたことがない珍妙な事を言い始めました。
これはやばいので、この辺でやめましょう。

とりあえず、ChatGPTに統計を教えてもらうのは、やめた方が良いですよ。

ChatGPTを使用する際の注意点

昨日の記事の通り、ChatGPTを使い始めてみたのですが、一つ注意点はあるな、と思います。
それについて、原稿をChatGPTに推敲してもらいながら、その様子もあからさまに見せて書いていきますね。

(私)

以下の文章を推敲してください。

ChatGPTに何か応答文を入れて色んな事をやってみようとしています。
それで、やってみて、一つ大きな注意点があるな、と思いました。
それは。
応答文をChatGPTの画面のプロンプトに直接入力すると、入力の途中でインプットされてしまい、中途な質問文への回答となってしまう、という事です。
なので、別のテキストエディタなどに質問文を入力して、コピペで質問を入力した方が良いと思います。

(ChatGPT)

以下のように推敲できます:

ChatGPTに対して色々な応答を試していますが、1つ大きな注意点があります。直接ChatGPTの画面に応答文を入力すると、入力中に自動的に処理され、質問文の途中で応答が表示されてしまうことがあります。そのため、質問文を別のテキストエディタなどに入力し、コピー&ペーストでChatGPTに入力することをお勧めします。

(私)

以下の文章を推敲してください。

今後もChatGPTを活用して色々な事をやってみます。その際の質問文と応答文も記事化しますので、ChatGPT活用の際の参考にしてください。

(ChatGPT)

以下は推敲例です:

今後もChatGPTを活用して、様々なことに挑戦していきます。その際の質問文と応答文を記事化し、ChatGPTを活用する際の参考になるようにしますので、ぜひご覧ください。

ChatGPTはじめてみました

人工知能(AI)は、近年急速に進化し、私たちの日常生活に欠かせない存在となっています。その中でも、自然言語処理技術は、人工知能が人間の言語を理解し、自然な対話を行うことを可能にする技術です。その代表的な技術の一つが、OpenAIによって開発されたChatGPTです。ChatGPTは、巨大なデータセットを学習することで、人間との対話において高い応答力と柔軟性を持つAIモデルです。今回は、ChatGPTの基本的な概要や、その応用例について解説していきます。」

これは、ChatGPTに「ChatGPTを始める記事の書き出しを考えてください。」と聞いた返事です。
もっとも、この記事で「基本的な概要」や「応用例」を解説するつもりはありません。
まずは始めるための基礎の基礎だけ、書いてみます。

まず、OpenAIのアカウントを作成する

OpenAIのページに行き、アカウントを作成します。
メールアドレスと、電話番号が必要です。認証コードは、iPhoneだとメッセージのアプリに届きます。

ChatGPTのページに行き、OpenAIのアカウントにログインする

これはその通りにするだけ。それでChatGPTを開始する事ができます。

あとは、プロンプトに何か文章(日本語可)を入れると、それに対する応答が返ってきます。
本当に、始めるだけなら簡単なので、興味がある人はとりあえずアカウントだけでも作ってみて、簡単な文章を入れてみてはいかがでしょうか。
(これでやり方が分からない方は、もっと丁寧に画面も示して説明してくれているページがいくつもありますので、探してみましょう。この稿では、簡単に始められますよ、という事だけ示しています。)

厚底シューズのもう一つの効用(ランニング理論入門)

厚底シューズがなぜ、速く走れるようになるのか、については、これまでいくつか書いてきました。

ai-math-running.hatenablog.com

ai-math-running.hatenablog.com

簡単にまとめると、厚底シューズはランニングのパワーポジションでの重心位置と接地位置を矯正する事でランニングフォームを効率的なものに変えていく、という働きがある、という事でした。
ただ、厚底シューズには、もう一つ、ランニングフォームの観点で大きな利点があります。

厚底シューズが本当に「助力」するものとは

上記原稿で、「(厚底シューズの)助力なんてごくごくわずかなもの」だと書きました。曰く、体重何十キロもある人間の身体が、靴底にある小さなバネでの助力なんて誤差範囲のものにすぎない、と。
でも、身体全体だと、バネの力での助力はごくわずかなものになってしまいますが、もっと小さい部分に対してなら、靴底のバネ程度でもある程度の助力になってくれるんです。
それは、「足」の部分。足首から先、靴で覆われた部分、それは重さという点ではわずかになるので、靴底のバネ程度でもかなり上に跳ね飛ばしてくれると思います。
その時の動きは、ちょうど「引き付け」になります。しかも、シザーズで説明した「引き付けとシザーズをワンモーションで行う動き」になってくれています。

ai-math-running.hatenablog.com

ai-math-running.hatenablog.com

つまり、厚底シューズは、バネを効かせるためにパワーポジションでの接地位置を矯正してくれると同時に、ランニングにおいての重要な動きである、引き付けとシザーズを助けてくれているのです。

ラソンの後半に足が残る現象とは

厚底シューズでは、良く、後半に足が残ってくれるという感想があります。それは厚底のバネがクッションとなって足を守ってくれる、とか、フォーム矯正の効果で効率良いフォームで走れているから、とか、考えられています。
でも、個人的には、後半になってもバネの助力で足が上がってくれて、引き付けやシザーズがちゃんとできる事の効果が大きいのはないか、と思っています。
というのは、マラソンの後半では、筋疲労や、疲労で筋肉が固くなる事から、引き付けの動きができにくくなってくるんです。特に前腿が固くなる影響は大きく、前腿が固くなると膝が曲がりにくくなって引き付けが小さくなってしまうのです。
それで、引き付けが小さくなると、足を前に送るのが遅れ、シザーズの動きもなくなり、足が遅れる事で前の方で着地する事になってしまってブレーキのかかった走りになってしまいます。
後半に「足が重くなる」という感想があるのですが、それで足が上がらなくなるとフォームが乱れて遅くなってしまうのですが、疲れてきてもフォームを保ち続ける助けとなってくれる訳ですね。それが「後半も足が残る」メカニズムではないかと思います。

という事で、厚底シューズの隠れた効用について書いてみました。
ちなみに、この効果は、スウィートスポットの広い、矯正機能の弱い厚底シューズでも同じ効果がありますので、市民ランナーにもありがたい効果ですよね。

idの由来(と今後やりたい事)

はてなの匿名ダイアリーにこういうのがありました。
anond.hatelabo.jp

そのブコメがこちら。
b.hatena.ne.jp

私も書きましたが、見てると面白いですね。
みなさん、色々考えてつけてるんですね。
私はちょっと捻りが足りなかったな。

そこでも書いたんですが、「AIと数学とランニングについて書くためにはてな始めた」というのはその通りで、でも「まだランニングについてしか書いてない」んですよね。

最初のエントリに書いた通り、実はランニングについての原稿は既にnoteに書いていて、ここに載せてるものはそちらから持ってきてるんですよね。
ただ、あちらは更新頻度を下げたので、もう少しやると追いつく。そうなると、同時公開になって、ランニングの更新頻度も下がるので、そこでぼちぼち、数学やAIについても書いていこうかな、と思っています。

厚底シューズのスウィートスポットとは(ランニング理論入門)

厚属シューズ、ブームですよね。
厚属シューズについては、以前に説明を書きました。

ai-math-running.hatenablog.com

かいつまんで書くと、Nikeの厚底シューズは、パワーポジションで接地位置が重心の真下近くに来て地面を真っ直ぐ押すようにフォームを矯正するシューズだ、という話でした。

それで、最近は、Nike以外のメーカーも厚底シューズを出すようになりました。その中の一部のメーカー(特に中国メーカー)では、市民ランナー向けにも使いやすいと評判です。それは「スウィートスポットが広いために市民ランナーレベルでも厚底の恩恵を受けられる」という事だそうです。
今回は、これについて説明を加えたいと思います。

厚底シューズのスウィートスポットとは

先に説明した通り、厚底シューズは、パワーポジション(一番力が加わっている状態)の時に重心の真下に接地位置がある、言い換えると接地位置の真上に重心があって、シューズに真っ直ぐ下向きに力を加える事で、厚底内のカーボンプレートが押しつぶされ、その反発を感じる事ができるシューズでした。そして、反発を感じるように走る事で、パワーポジションの時の接地位置が重心の真下になるようにランニングフォームが矯正されるのが、厚底シューズで速くなるメカニズムでした。
もっとも、完全に真下になるのは難しいのですが、ある程度の範囲になっていればカーボンプレートのバネが働くようになっているようです。そこで、シューズのバネが働く範囲をスウィートスポットと呼ぶようになりました。

このシューズは、プロや実業団の選手、学生のトップクラスの走力がないと恩恵が受けられない、と言われています。それは恐らく、重心と接地位置の関係をスウィートスポットの範囲内にするのが難しく、トップレベルの競技能力がないと難しいから、でしょう。近い範囲にできていたランナーなら、練習すればスウィートスポットの範囲内にできるようになるでしょうが(そして、それは効率の良い走りに矯正された事になります)、そうじゃないランナーにとっては、どうすればパワーポジションの時に接地位置を重心の真下に近づけられるか、検討もつかないでしょう。そうすると、矯正機能も意味がないものになってしまいます。

スウィートスポットが広い厚底シューズ

そこで、スウィートスポットの広い厚底シューズが人気が出ているんだと思います。スウィートスポットが広いので、パワーポジションでの接地位置が重心の真下から多少ズレていても、カーボンプレートのバネが効いて反発をもらえるようになっています。
と言っても、実はこれは、功罪両面があると思っています。というのは、バネによる反発による助力は、厚底シューズの機能の本質ではないからです。厚底シューズの機能の本質は、あくまでフォームの矯正によるフォームの効率化です。スウィートスポットの「狭さ」は、パワーポジションでの接地位置を重心の真下近くの狭い範囲に矯正する意味があるので、そこが広くなってしまうと、接地位置のズレが大きくなってしまい、結果としてフォームはあまり矯正されない事になってしまう訳です。
もっとも、全く意味がない訳じゃなく、ある程度広くても、その範囲内に接地位置を矯正はしてくれるので、ある程度はフォームも効率性も上がるとは思います。あまりに上級者向けのものを使って全く矯正できない意味がないものになるより、身の丈に合ったツールである程度の矯正をする、というのは意味あると思います。
なので、一番良いのは、スウィートスポットの広さに段階がある事でしょう。スウィートスポットの広いシューズから始めて、少しずつスウィートスポットが狭いシューズに段階的に変えていけたら、最終的に非常に狭いシューズも履きこなせて、プロ並みのフォームで走れるようになるかもしれません。
そういう意味では、現在出ている厚底シューズを、スウィートスポットの広さで並べる作業を、どこかがやってくれると良いんですよね。どこかのランニング雑誌、やりませんか?

全身のバネで弾む(ランニング理論入門)

前回の原稿で、「膝だけでなく、全身のバネで飛びたい」と書きました。では、全身のバネで飛ぶって、どういう事なのでしょう?

全身のバネで飛ぶ、とは

全身のバネで飛ぶとは、「頭のてっぺんから足裏までを一本の棒状のバネ」と見立てて、全身を少しずつ縮めて復元する力で飛ぶ事を言います。汚い図ですが、下のような感じです。

足首が少し曲がり、膝も少し曲がり、股関節が曲がって骨盤が少し前傾し、背骨は元々S字型に少し湾曲しているのが、たわんでカーブのRが深くなって全体として縮み、といった感じで、全身が少しずつ縮みます。その縮んだ全身が復元する事で、バネとして地面を押し、その反作用で地面から力をもらって飛ぶ事になります。
なので、足首や膝も、当然曲がります。ただし、それだけじゃない、そこがメインじゃない、というのがミソです。
着地の衝撃は、曲がっている部分に集中的にかかってしまうので、一箇所を大きく曲げずに全体に負荷を分散する、そのために、「全身を少しずつ縮めてバネとする」のです。
(あと、細い部分、弱い部分(足首や膝)よりも、太い部分、強い部分(骨盤や背骨)により負荷がかかる方が望ましい、というのもあります。もっとも、腰周辺に負荷をかけ過ぎると腰痛になってしまうのですが。)

縄跳びはランニングの練習になるか

全身ジャンプの練習として、縄跳びが良いという話があります。

もちろん、縄跳びはある程度はランニングに役立ちます。それは、効率の良い連続ジャンプが身に付くからです。
効率よく連続ジャンプするには、1回1回自分で飛ぶのではなく、着地の衝撃で筋肉が伸び縮みし、その反動で(特に伸びた筋肉の伸長反射で)跳ね返るように跳躍する、それをくりかえるのが良いです。これができると、体感的にはほとんど力を使わずに弾み続ける事ができます。

しかし、縄跳びでできる連続ジャンプは、恐らく足首と膝だけを使った伸長反射のジャンプになりがちです。縄跳びは、せいぜい数百回程度の連続ジャンプで終わりますが、ランニングは、長い距離だと数万回レベルの連続ジャンプ運動になります。なので、縄跳びでは保つ「足首と膝だけの連続ジャンプ」がマラソンとかだと持たなくなってしまうのです。
(もちろん、数万回レベルで縄跳びで飛ぶ練習がやれるなら、良いとは思いますが、縄跳びで上半身を使うのは難しいので、結構辛いのではないかと思います。)

特に上半身部分のバネを使うトレーニング法

では、上半身のバネを使うトレーニング方法はないのでしょうか。

あります。それは「棒ジャンプ」、下の図のようなドリルです。

例えば、鉛筆のような「真っ直ぐな棒」を机とかに真っ直ぐ落としてやると、真っ直ぐ跳ね返ります。少しでもズレるとキレイに跳ね返りません。そのイメージで、全身を棒に見立てて真っ直ぐ落として跳ね返るようにします。
その時、重要なのは、足のバネを使わない事です。なので、つま先ではなく踵付近(踝の真下あたり)で着地するようにします。膝もロックして使わないようにします。そうする事で、上半身のバネだけで飛ぶようにするのです。
といっても、足のバネを使わないと、恐らくほとんどの人は飛べないでしょう。そこで重要になるのが「腕振り」です。
腕振りをジャンプとしっかり連動させる事で、足のバネを使わずに飛べるようになります。この場合の腕振りは、上下のジャンプなので上下に振ります。左右対称なので右左同じ動きです。着地の時に地面を押すようなイメージで腕を下げ、ジャンプするのに合わせて手首を脇下に持ち上げるように腕を上げます。勢いとしては手首を脇下にぶつける感じです。
この時に、ちゃんとまっすぐに着地して、腕振りのタイミングがしっかり合えば、飛び続ける事ができます。
(これ、やってる人は多いですが、やっぱり難しいみたいです。この前短距離のトレーニングをやってる所を見かけて、これもやっていたのですが、足首のバネをしっかり使ってしまっていて、それじゃ意味ないよな、と思ってしまっていました。もっとも、私も結構怪しいですが。。。)


この棒ジャンプをする事で体感して分かる事が2つあります。
1つ目は、腕振りが体幹を操作するキーである、という事です。良く、体幹を使って走れ、なんて言われますよね。でも、では具体的にどういう動作をする事が「体幹を使う」事になるか、は、あまり明確に語られていません。
(なので、以前、体幹ブームがありましたが、ブームで終わってしまったのは、その辺りがあると思っています。)
でも、腕振りを上手くやると、自然と体幹が使えるのです。棒ジャンプでも、腕振りをタイミング良く行う事で、上半身のバネが使えました。そのように、腕振りによって体幹の力を上手く使えるのです。
2つ目は、腕振りのタイミングの重要性です。棒ジャンプでは、腕振りのタイミングが決定的に重要でした。しかし、ランニングでは腕振りのタイミングは軽視されていると思います。
(またいずれやりますが、腕振りのタイミングを合わせるドリルがあります。これをやってもらうと、大抵の人は腕振りのタイミングが少し遅れている事に気が付きます。)
棒ジャンプには、そういった教育的な意味合いもあるので、是非ともやってみて下さい。