Hadoop яагаад хямд байдаг вэ?
Hadoop яагаад хямд байдаг вэ?

Видео: Hadoop яагаад хямд байдаг вэ?

Видео: Hadoop яагаад хямд байдаг вэ?
Видео: Лекция JADAM 5. Так легко микробиологическое культивирование. JMS. Решение для корневого продвижения 2024, Дөрөвдүгээр сар
Anonim

Hadoop харьцангуй юм хямд

Хэрэгжүүлэх нэг терабайтын зардал a Hadoop кластер юм хямд соронзон хальсны нөөцлөх системийг бий болгохын тулд нэг терабайтын зардлаас илүү. Зөвшөөрөгдсөн, А Hadoop Мэдээллийг хадгалдаг дискний хөтчүүд нь соронзон хальсны хөтчүүдээс ялгаатай нь бүгд онлайн бөгөөд тэжээлтэй байдаг тул системийг ажиллуулахад илүү их зардал гардаг.

Ийм байдлаар Hadoop зардал багатай юу?

Hadoop өргөтгөх боломжтой санал болгож байна, зардал - үр дүнтэй мөн том өгөгдлийг хадгалах, боловсруулахад зориулсан өндөр боломжтой шийдэл. Өмчлөлийн бус физик давхаргыг ашиглах нь технологийн хамаарлыг ихээхэн бууруулдаг. Энэ нь виртуал машин эсвэл бүр IAAS үүлэн дээр байрлуулах үед уян хатан хэмжээсийг санал болгодог.

Нэмж хэлэхэд, яагаад оч нь Hadoop-оос илүү байдаг вэ? Апачи Оч – Оч нь маш хурдан кластер тооцоолох хэрэгсэл юм. Апачи Оч Програмуудыг санах ойд 100 дахин, диск дээр 10 дахин хурдан ажиллуулдаг Hadoop-оос илүү . Диск рүү унших/бичих мөчлөгийн тоог бууруулж, санах ойд завсрын өгөгдлийг хадгалахтай холбоотой. Оч боломжтой болгодог.

Үүнийг харгалзан үзэхэд Hadoop ямар үнэтэй вэ?

Байгууллагын ангиллын хувьд Hadoop кластерын хувьд дунд түвшний Intel сервер ашиглахыг зөвлөж байна. Эдгээр нь ихэвчлэн зардал Хүссэн гүйцэтгэлээс хамааран 3TB-аас 6TB хүртэлх дискний багтаамжтай нэг зангилаа тутамд 4000-аас 6000 доллар. Энэ нь зангилаа гэсэн үг зардал нэг сүрьеэ тутамд ойролцоогоор 1000-2000 доллар байна. HDFS нь файлын хэмжээнд физик хязгаарлалтгүй.

Hadoop яагаад илүү хурдан байдаг вэ?

Spark яагаад байгаа шалтгаан Илүү хурдан -аас Hadoop Spark нь санах ойд байгаа бүх зүйлийг боловсруулдаг. Энэ нь санах ойд багтахгүй өгөгдөлд дискийг ашиглаж болно.

Зөвлөмж болгож буй: