ロバストかつパワフルな、再現性のある大規模多重検定の方法の開発
ビッグデータの時代である今、多くの理論や仮説が生み出されている。科学技術は、こうした過去の発見をもとにして進歩していくため、過去の発見が誤りである場合、新たになされる発見も誤りである可能性が高い。このことは、発見に使う手法に再現性がないと、多くの労力やリソースが浪費されてしまうことを意味する。しかし、再現性を保つにはどうすればよいか、ビッグデータを扱う場合は特に、明らかではない。
再現性のある手法を、A.発見した仮説が確かに正しく、B.正しい仮説を見落とさず発見できる手法とする。この手法を開発する研究は、統計学的には、多重検定においてA.第1種の過誤をコントロールしつつ、B.なるべく第2種の過誤を小さくする手法の開発として定式化する。 そこで私は、高次元性や複雑な構造を持つことが多いビッグデータに対して、再現性を保ちつつ理論や仮説を発見するための、大規模多重検定の方法を開発する。