ビッグデータカンファレンス-最大のビッグデータカンファレンス

同僚、周りを見て!



「ビッグデータ」はあなたにずっと近く、見た目以上のものがあります。 このトピックに関するイベントは豊富にありますが、「私たちの間の女の子の間で話している」少数の人々がこのトピックを所有しています。 そして、情報から利益とお金を絞り出すために、あなたは非常によく理解する必要があります...つまり、微妙なことです。



「ビッグデータを圧縮する」技術は、エンジニアリングとアルゴリズムの2つの非常に異なるレイヤーに大まかに分けられています。 最初のモノリスでは、ソフトウェアはまだかなり未加工で、急速に開発されているため、開発者は単純な言葉で「屋根に乗ります」。HDFSを備えた「古き良き」Hadoopのツールを理解し、Hive、Impala、Presto、Verticaなどを積極的に使用する必要がありますその他...そして、競争に遅れずについていくために、美しい簡潔なScalaに積まれたApache Sparkの秘密を宝石で所有しています。







一方、「データからルールとパターン」を抽出し、「線形判別分析」というフレーズから抜け出すのではなく、「annovaコアでのロジスティック回帰」の複雑さを議論するときは汗をかかないように、そして「スペクトル因数分解」のデモ。目を覚まそうとせず、「局所性に敏感なハッシュを使用して非ユークリッド空間でテキストをクラスタリングする」プロセスを提示します;-)



この状況で最悪なのは、パソコンを手放していない子供たちが、私たちよりもすでにこれらの技術に自信を持っていることです! カラスト



そのため、「ビッグデータ」をビジネスに従属させて有用にするために、2つの方法があります。それは、長く正しいことです。



長い道のり-次の分野を学ぶ義務があります。

-確率論

-線形代数

-微分計算

-グラフ理論

-100-500アルゴリズム...

-「ビッグデータ」を処理するための技術

約50年かかります。



そして正しい方法は、2015年9月11日にキエフで開催されるBigdata Conferenceに行くことです。 文字通り2〜4日で、会社の「ビッグデータ」の収集と分析のプロセスを整理し、同僚にRapidminerの使用方法を教え、最高の機械学習アルゴリズムを実装し、ビジネスをまったく新しいレベルに引き上げることができます。 そして、技術の専門家は、専門家から知識の貯金箱を補充することができます-Sparkについて話し、ソーシャルグラフをクラスタリングし、そしてはい、効果的な「ディープラーニング」なら!



お会いできるのを楽しみにしています! 会議の数日前まで残ります。



All Articles