Skip to main content

ビッグデータとは何ですか?

bigビッグデータは、非常に大きくなったデータの測定値であるため、通常のデータベースには膨大な量の情報を抑えて動作することができません。データには3つのサイズがあります。これらの測定値は厳密ではありません。代わりに、それぞれが使いやすさと、どのタイプのマシンが情報を処理できるかにより大きく依存します。通常のデータベースに使用されるものよりもはるかに大きく複雑な特別なマシンが、ビッグデータに必要です。これらのタイプのデータは通常、政府および科学機関に見られますが、いくつかの非常に大きなWebサイトにはこの大量の情報も含まれています。小さなデータは、ラップトップなどの単一のコンピューターまたはマシンに適合することができます。中程度のデータはディスクアレイに適合することができ、データベースで最適に管理されています。データベースは、どんなに大きくても、ビッグデータを操作することができず、代わりに特別なシステムを使用することができます。ビッグデータの厳格なガイドラインはありませんが、通常、テラバイト(TB)レベルを中心に始まり、ペタバイト(PB)レベルに上がります。データの量は、いくつかの実質的な問題を引き起こします。データベースは情報の量を処理できないため、一部のデータを消去する必要があります。これは、わずか50 GBのハードドライブスペースを持つコンピューターに100ギガバイト(GB)を取り付けようとするようなものです。それはできません。任意の機能が完了するのに長い時間がかかり、データベースを新しい提出物に閉じる必要があるため、残されたデータは制御と管理の両方が扱いにくくなります。、これは扱いにくい問題を引き起こします。これは、データベースソフトウェアが中程度のデータでのみ動作するように作られているためです。ソフトウェアは問題に遭遇せずに大規模なデータを移動または動作させることができないため、エラーや管理上の問題に大きなデータセットが発生します。防衛機関と軍事機関は、この量の情報を使用してモデルを作成し、テスト結果を保存します。多くの大規模な科学機関は、同様の理由でこれらの専門マシンを必要としています。いくつかの非常に大きなウェブサイトには大規模なデータマシンが必要ですが、ウェブサイトはこの市場の代理店ほど一般的ではありません。これらの組織は、将来のデータをより適切に分析し、予測するのに役立つため、すべてのデータを保持する必要があります。