ビッグデータに直面して別の平手打ち? 欲求不満の段階

過去の記事で、ビッグデータである「脂っこくてみすぼらしい」という用語が「欲求不満」の段階に入ることを実際のイベントですでに示しました。



画像



蓋の中の別のクローブとして、私たちはさらに別の失望の一連の記事の1つの翻訳を与えます。 それはすべて悪いですか、そして記事の後のビッグデータへのそのようなアプローチの大きな誤りは何ですか? いずれにせよ、この資料には、産業研究やデータセットへの重要な参照がいくつか含まれているため、知り合いにとって有用です。





ビッグデータ-認識:移行中



最近、私は「ヨーロッパ人はビッグデータの有効性を信じていない」という題名のアリ・サイードの出版物を読みました。



この研究は、TNS Infratestのボーダフォン社会協会および通信研究所の市場研究者によって委託されました。 欧州8か国から8,000人以上が参加しました。彼の例では、ビッグデータと分析全般に対する人々の態度を見ることができます。



私たちがビッグデータの時代に生きているという事実を信じていない人々がまだいます。 言い換えれば、彼らはビッグデータの問題は単純に過大評価されており、それを取り巻くすべての誇大広告はすぐに収まると信じています。



私にとって、ビッグデータの概念は決して新しいものではありません。 より多くのより良い分析のために、徐々にスキルを獲得していきます。 そして、これはほんの始まりに過ぎず、このプロセスが進むほど、単純な人がビッグデータを信じるようになります。



2013年3月のビッグデータに特化した会議で、統計学の教授が他の参加者と議論し、ビッグデータなどの概念は単に存在しないと言ったのを覚えています。なぜなら、データを分析し、統計を抽出できるからです、それらの数を減らし、小さなグループに分割する必要があります。



ビッグデータとの出会いは誰にとっても避けられません。 ビッグデータに対する人々の不信の考えられる理由の1つは、彼らが単にそれらにアクセスできないことです。 彼らが言うように、一度見たほうがいいです。 ビッグデータを扱う企業は、以前は秘密のツールと大量のデータセットを徐々に公開しているため、世界のコミュニティはついにこの一歩を踏み出し、ビッグデータを感じています。



Googleは2015年11月にビッグデータを使用した詳細な分析アルゴリズムであるTensorFlowをリリースし、その後2016年1月にYahooは「 マシン分析のための最大データセット 」- 最大 13.5テラバイトのアーカイブされていないデータをリリースしました。



Yahoo Labsのプロジェクト責任者によると、「 多くの研究者とデータアナリストは、非常に大きなアレイとデータセットにアクセスできません。これは、原則として、大企業の特権です。 データセットを公開したのは、同僚とのオープンで相互に有益な協力を重視し、常に機械分析技術の進歩に努めているためです。



私たちは過渡期に住んでおり、これまでのところ絶対的なビッグデータと呼ぶことができるものはなく、「偉大さ」の知覚の正確な量は人によって異なります。 一部の人にとっては、ギガバイトは既にビッグデータであり、誰かにとっては、ペタバイトでは十分ではなく、ストレージ容量とコンピューティング能力に依存します。



データの量は増え続けていますが、明らかな疑問があります。保存して使用できるデータの最大量に到達するでしょうか。 偉大な科学者ラプラスがかつてこのような大量のデータについて私たちに語ったことがあるからです。



ラプラスの悪魔は次のように述べています。 「私たちは、宇宙の現在の状態を、その過去と未来の原因の結果として考えることができます。 ある特定の瞬間に、自然を動かすすべての力と、それを構成するすべての物体の位置を知っている心は、これらのデータを分析するのに十分に広ければ、宇宙の最大の物体の運動の統一法則を包含することができますそして最小の原子; そのような理由で、何も不明瞭ではなく、未来は過去のように彼の目に存在するだろう..」 -ピエール・シモン・ラプラス、確率に関する哲学的エッセイ。



同じ概念がスティーブン・ホーキングによって言い換えられました:「 本質的に、彼は、いつでも宇宙のすべての粒子の位置と速度を知っていれば、いつでもそれらの挙動を計算できると言いました、過去と未来の両方で" ラプラス仮説の大きな障害はハイゼンベルグの不確実性原理ですが、スティーブン・ホーキングは「 とにかく、位置と速度の組み合わせを予測することは可能だろう書いています。



いつの日かそのようなデータセットを作成できれば、誰も納得がいかないでしょう;)



要約すると、私たちは移行期間中に住んでいると言えます。人々は、データセットの可能な量が増えており、従来のデータ処理ツールはこの新しい負荷に対処できないと理解し始めます。

============================================



弁証法の法則が適用されると、19世紀に哲学者や科学者が警告した大きなエラーが記事に表示されます。機構的アプローチは複雑な構造には適用できません。 物理学が分子化学の法則を説明できないように、化学が社会の思考の構造を説明できないように、「単なるデータセット」はビッグデータではありません。



しかし、いずれにせよ、ビッグデータという用語は景気後退期にあることを認識しておく必要があります(ドライブとホスティング業界を除く)。代わりに、研究者は「スマートビッグデータ」という用語を使用します。



PS「科学者」は、店内のユニバースと同じ種類のチェックのテラバイトの原子を数え、数えますが、業界は急速に前進しています-私たちは待って、(プロ)運動に参加しています! :-)



All Articles