新しいデータを読み込む前(事前)か後(事後)かで、分析結果を明確に区別しているということですね。
このベイズ統計学は、絶え間なく追加される膨大なデータを次々と処理・判断していく現代のAIを支える重要なテクノロジーになっています。
というと何やら複雑な数式が出てくるのかと警戒してしまいますが、何のことはありません。数式を見ていただくと、単なる掛け算になっています。
この式は「ベイズの定理」と呼ばれていて、ベイズ統計学の根幹を成す重要な数式です。新しいデータの影響を掛け算するだけで確率をアップデートできてしまいますよということです。
この定理の便利なところは、事後確率を計算してしまったあとは、計算のもとになったデータはもう不要になるという点です。
従来の統計学では新しいデータがくると、それをもともとあったデータに加えて計算をやり直す必要がありました。
それはつまり、もともとあったデータを全てとっておかないといけないということです。
そのデータ量が少なければ何も問題はないのですが、今はビッグデータ時代で、膨大なデータが際限なく生み出されています。新しいデータがやってきたときのためにそれらを全部とっておけと言われてしまったら、コンピューターの記憶容量がいくらあっても足りません。