ビッグデータ数学に関するDmitry Vetrovの講義:テンソル、ニューラルネットワーク、ベイジアン推論

本日は、ロシアで最も有名な機械学習の専門家の1人であるDmitry Vetrovによる講演です。DmitryVetrovは 、Yandexの支援を受けてHSEで働いているコンピューターサイエンス学部のビッグデータおよび情報検索部門を運営しています。



多次元配列をメモリ線形構造に格納および処理するにはどうすればよいですか? 何兆兆個のニューロンのニューラルネットワークのトレーニングを提供し、再トレーニングせずにそれを実行するにはどうすればよいですか? 入ってくるデータを順番に保存せずに「オンザフライ」で情報を処理することは可能ですか? ある時点で計算するよりも短い時間で関数を最適化する方法は? 間隔の狭いデータに関するトレーニングは何ですか? そして、なぜ上記の問題をすべて解決するために数学をよく知る必要があるのですか? その他。







人々とそのデバイスは大量のデータを生成し始めたため、大企業のコンピューティングパワーでさえ成長に間に合いません。 そのようなリソースなしではデータの操作は不可能ですが、人々はそれらを有用にします。 今、私たちは、従来の数学的方法とモデルが適用できないほど多くの情報がある段階にあります。 Dmitry Petrovichによる講義から、機械学習とデータ処理を扱うために数学をよく理解する必要がある理由がわかります。 そして、これに必要な「新しい数学」。 プレゼンテーションスライド-カットの下。







ドミトリーヴェトロフは、物理学および数理科学の候補者であるVMiKモスクワ州立大学を卒業しました。 120を超える科学出版物の著者。 ドミトリー・ペトロヴィッチは「ベイジアン機械学習法」と「グラフィックモデル」のコースを開発し、モスクワ州立大学とデータ分析のヤンデックススクールで読みました。 彼はいくつかの学際的な研究プロジェクトに参加して、機械学習と確率的推論の新しい方法(認知科学、医学、無機化学など)を開発しました。 ベイジアン研究チームを率いています。



All Articles