多摩川の辺りで働くデータサイエンティスト

ポートフォリオ的なもの(未完)

DXってやっぱりDが重要じゃない?という考察

この文章は、草稿段階の記事になります。 コメント等いただけると考察を深められると思うので幸いです。 目的 2021年現在、DXが謳われて久しいところですが、その中で、DX人材には ITスキル必要派 ITスキルより企画力や業務変革力派 といった意見がが入り乱…

バイアスーバリアンス(+ノイズ分解)を導出する。(初歩なんだけど、誤解していたという次第。)

バイアス-バリアンス分解(+ノイズ)とは バイアスーバリアンス分解は回帰の二乗誤差をバイアス(モデルの表現力不足)とバリアンス(過学習(偶然を必然と勘違いすること)による悪影響)に分解するものです。 これ自身は数学的な帰結ではあるものの、実際…

WAICの導出を追ってみる。その5

概要 前回の記事では、繰り込まれた事後分布による平均操作を定義して、やについて求めて行きました。 この記事では、汎化損失と経験損失の展開をキュムラントより求めた後、汎関数分散と正規確率過程の関係を求めて、WAICを導出します。 キュムラント母関数…

WAICの導出を追ってみる。その4

概要 本記事では、事後分布の微小積分をサンプル数で収束する部分とサンプリングによる確率的変動で収束する部分に分かれた形に変形します。この様に分けることで、事後分布で期待値を計算する際に、分母と分子でサンプル数で収束する部分同士でキャンセルさ…

WAICの導出を追ってみる。その3

概要 前回の記事で、経験誤差の標準形を導きました。これを用いて、分配関数(事後微小積分)を求めるのですが、そのために一旦、分配関数の主要部分を求めておきます。内容としては、「ベイズ統計の理論と方法」のp58-62に相当します。 正規化された分配関…

WAICの導出を追ってみる。その2

概要 この記事では、WAICの導出に出て来る、経験誤差の標準形の導出について確認して行きたいと思います。 具体的には前回記事の 経験誤差関数を $$ nK_{n}(w)=n{u^{2k} - \sqrt{n}u^{k}\xi_{n}(u)}, \quad \xi_{n}(u) = \frac{1}{\sqrt{n}}\sum^{n}_{i=1}{u…

WAICの導出を追ってみる。その1

WAIC導出のモチベーション WAICの導出を追ってみたいと思います。データ分析の周辺界隈では、良く中身は分からなくとも使えればいい的な発言を聴くことが多々ありますが、専門が違うならいざ知らず、自分の専門を使えればいいというのは余りにも志しが低すぎ…

Privacy Policy of Deep Discrimination

Privacy Policy of Deep Discrimination Management of personal information In the Android application "Deep Discrimination", pictures taken while using the application are to be used temporarily saved until the application is terminated. We …