به "وبلاگ فالنیک ( ایران اچ پی)" خوش آمدید    |   وبسایت فالنیک (ایران اچ پی)
تماس با فالنیک : 8363-021
سرور و شبکه

آشنایی با Data Deduplication یا حذف رکوردهای تکراری داده

آشنایی با Data Deduplication یا حذف رکوردهای تکراری داده

یادداشت ویراستار: اصل این مطلب در فروردین 97 نوشته شده بود و در بهمن 99 دوباره بررسی و به‌روز شده است.

Data Deduplication یا حذف رکوردهای تکراری داده اهمیت بسیار زیادی در سرعت ذخیره سازی و واکشی داده دارد. در این مقاله با تکنولوژی Data Deduplication و انواع آن آشنا می‌شویم و برخی مزایای آن را نام می‌بریم.

Data Deduplication چیست؟

خدمات بازیابی اطلاعات در فالنیک
نرم‌افزارهای بازیابی اطلاعات، یا توانایی بازیابی داده‌های شما را ندارند یا نمی توانند تمامی اطلاعات را بازیابی کنند. استفاده از آنها کار بازیابی و احتمال بازگرداندن اطلاعات را کاهش می‌دهند. مرکز تخصصی بازیابی اطلاعات فالنیک اطلاعات هاردهایی را بازیابی می‌کند که سیستم شناسایی‌شان نمی‌کند.
درخواست بازیابی اطلاعات

Data Deduplication یا حذف رکوردهای تکراری داده که به صورت Dedupe هم شناخته می‌شود، روشی است که با حذف داده افزونه، نیازهای ذخیره سازی کاهش می‌یابد. علاوه بر کاهش مصرف فضای ذخیره سازی، هنگام انتقال داده تحت شبکه، تعداد بایت‌های ارسالی نیز کاهش می‌یابد.  این روش با نام‌های دیگری مانند فشرده‌سازی هوشمند – Intelligent Compression و Single Instance Storage یا SIS نیز شناخته می‌شود.

SIS یک قابلیت سیستمی است که تنها یک نسخه از مطلبی که چندین کاربر یا کامپیوتر به اشتراک گذاشته‌اند را نگه می‌دارد. یعنی داده‌های تکراری حذف می‌شود تا کارایی افزایش یابد. SIS در سیستم‌های فایلی، نرم‌افزار ایمیل سرور، بکاپ گیری از داده و دیگر نرم‌افزارهای مبنی بر ذخیره سازی استفاده می‌شود.

فشرده سازی هوشمند یا Intelligent Compression الگوهای افزونه را از داده حذف می‌کند تا کارایی اپلیکیشن بهبود یابد. این تکنیک معمولا در اپلیکیشن‌های تحت وب استفاده می‌شود تا پهنای باند کمتری نیاز باشد و زمان پاسخ به کاربر کاهش یابد.

Dedupe یک قابلیت سیستمی است که تنها یک نسخه از مطلبی که چندین کاربر یا کامپیوتر به اشتراک گذاشته‌اند را نگه می‌دارد. این روش، الگوهای افزونه را از داده حذف می‌کند تا کارایی بهبود یابد. کاربرد Data Deduplication معمولا در اپلیکیشن‌های تحت وب است تا پهنای باند کمتری نیاز باشد و زمان پاسخ به کاربر کاهش یابد. همچنین در سیستم‌های فایلی، نرم‌افزار ایمیل سرور، بکاپ گیری از داده، Snapshotهای بکاپگیری، نرم‌افزارهای مبتنی بر ذخیره سازی، مجازی سازی و VDI (زیرساخت دسکتاپ مجازی) استفاده می‌شود.

مزایای Data Deduplication

در تکنیک Data Deduplication طی یک پروسه تحلیلی، تنها یک نمونه از داده در رسانه ذخیره‌سازی مانند Tape یا دیسک ذخیره می‌شود و داده افزونه یا تکراری با اشاره‌گری جایگزین می‌شود که به این نسخه از داده که یکتاست ارجاع می‌دهد. در نتیجه میزان داده‌ای که باید منتقل یا ارسال شود، به صورت چشمگیری کاهش پیدا می‌کند. مثلا یک ایمیلِ سیستمیِ معمولی ممکن است صد نمونه از یک فایل پیوست یک مگابایتی داشته باشد. برای بکاپگیری و آرشیو آن باید تمامی صد نمونه ذخیره شوند که به فضای ذخیره‌سازی 100 مگابایتی نیاز دارد. اما با استفاده از Dedupe تنها یک نمونه از این فایل ذخیره می‌شود و نمونه‌های بعدی به همان یک نسخه ذخیره شده، ارجاع داده می‌شوند. در این مثال، هر صد مگابایت مورد نیاز می‌تواند به تنها یک مگابایت کاهش یابد.

مزایای Data Deduplication
کاهش هزینه و فضای ذخیره سازی با انجام حذف داده های تکراری

Data Deduplication مزایای دیگری هم دارد. اگر به فضای ذخیره‌سازی کمتری نیاز باشد، هزینه مالی مورد نیاز برای تامین دیسک‌ها هم کاهش می‌یابد. استفاده بهینه‌تر از فضای دیسک، باعث افزایش زمان نگهداری دیسک می‌شود در نتیجه RTO بهتری نیز فراهم شده و نیاز به بکاپگیری نیز کمتر می‌شود. با استفاده از حذف رکوردهای تکراری داده بین 30 تا 95 درصد فضای کمتری برای ذخیره اطلاعات لازم داریم.

با Data Deduplication، داده‌هایی که باید در WAN به منظور بکاپگیری از راه دور، Replication و Disaster Recovery فرستاده شود نیز کاهش می‌یابد در نتیجه به پهنای باند کمتری نیز نیاز دارید و باعت بهینگی در WAN می‌شود. این تکنولوژی اغلب به صورت ترکیبی با دو تکنولوژی دیگر یعنی فشرده‌سازی و Delta Differencing استفاده می‌شود که در این صورت در بهینه‌سازی مصرف فضای ذخیره‌سازی نیز موثرتر خواهد بود.

استفاده ار زیرساخت های دسکتاپ مجازی – VDI از راهکارهای استفاده از Data Deduplication است که پیاده سازی و تجمیع برنامه‌ها، و دسترسی ریموت از مزایای آن است. برنامه‌های بکاپگیری مجازی هم از دیگر راهکارهای استفاده از Data Deduplication است زیرا بین اسنپ شات ها کار حذف رکوردهای تکراری را انجام می‌دهد.

انواع تکنیک Data Deduplication

دو تکنیک Data Deduplication عبارتند از Inline Deduplication و Post processing Deduplication. برای اینکه کارکرد این دو تکنیک را متوجه شویم آنها را با هم مقایسه می‌کنیم. 

Inline Deduplication یعنی داده تکراری را وقتی دیتا در حال ارسال از یک دستگاه به دستگاه دیگر (معمولا سیستم بکاپ دیتا) است، حذف می‌کنیم. بدین ترتیب داده اضاقی حذف شده و ذخیره سازی بهینه‌تر انجام می‌شود. در این فرآیند لازم است پردازشی بین سرورهای داده و مقصد بکاپ داده انجام شود. Post processing Deduplication یعنی بعد از اینکه دیتا منتقل شد، داده تکراری حذف می‌شود. در نتیجه Inline Deduplication سرعت بکاپ گیری را کم می‌کند اما دیتای نهایی فاقد هر گونه دیتای بی‌مصرف و تکراری است.

برای تعمیر لپ تاپ خود روی لینک تعمیر لپ تاپ بزنید.

Data Deduplication در سطح بلاک و فایل

Data Deduplication در سطح بلاک یا فایل عمل می‌کند. File Deduplication فایل‌های تکراری را حذف می‌کند اما کارایی زیادی ندارد. Block Deduplication بلاک‌های تکراری را حذف می‌کند، روشی کاراتر است اما به قدرت پردازشی بیشتری نیاز دارد. 

مزیت Data Deduplication در سطح فایل مصرف منابع (CPU و رم) کمتر است و قابل پیاده سازی روی فضای ذخیره سازی فیزیکی بزرگ است اما عیب مهم آن این است که نمی‌تواند Chunkهای تکراری کوچکتر از فایل را حذف کند.

مزیت Data Deduplication در سطح بلاک این است که می‌تواند Chunkهای تکراری کوچکتر از فایل را حذف کند اما عیب مهم آن این است که قابل پیاده سازی روی فضای ذخیره سازی فیزیکی بزرگ نیست. اگر منابع پردازشی کافی دارید، روش بسیار بهتری نسبت به Data Deduplication در سطح فایل است.

Data Deduplication در سطح target و source

source deduplication یعنی حذف داده تکراری در کلاینت اتفاق می‌افتد این کلاینت ممکن است سرور یا ورک استیشن یا پی سی باشد اما SAN یا NAS نیست. مزیت این روش این است که پهنای باند LAN کمی لازم است اما منابع بیشتری از کلاینت لازم دارد.

Data Deduplication در سطح target و source
Data Deduplication در سطح بلاک یا فایل عمل می‌کند.

target deduplication یعنی حذف داده تکراری در رسانه بکاپ اتفاق می‌افتد. مزیت این روش این است که پهنای باند LAN بیشتری لازم است اما منابع کمی از کلاینت لازم دارد. این تکنیک در intelligent disk targets – IDTs و virtual tape libraries – VTL استفاده می‌شود. برای حجم بالای دیتا مثلا چندترابایت، اگر چه این روش نیاز به فضای ذخیره سازی بیشتری است اما کارایی و سرعت بیشتری دارد و برای شرکت‌هایی که پهنای باند کم و دیتای بیشتری هستند مناسب است. 

انجام دیداپلیکیشن در منبع برای بکاپگیری برای دفاتر راه دور و شعبات مناسب است تا بکاپ ها به دیتاسنتر یا کلود منتقل شوند. دیداپلیکیشن در مقصد برای دیتاسنترها مناسب است چون حجم دیتای بسیار زیادی دارند.

قیمت استوریج با گارانتی معتبر فالنیک و مشاوره رایگان خرید
علاوه بر مناسب بودن قیمت استوریج، داشتن گارانتی معتبر و اصلی هم در خرید استوریج اهمیت بالایی دارد. فالنیک، در کنار قیمت مناسب، 18 ماه گارانتی اصلی و معتبر برای استوریج و دستگاه ذخیره سازی اطلاعات ارائه می‌دهد. شماره تماس مشاوره رایگان و اطلاع از قیمت استوریج: 02154591918
قیمت استوریج

5/5 - (6 امتیاز)
وبینار آشنایی با معماری، مفاهیم و کاربردهای VMware vsan وبینار آشنایی با معماری، مفاهیم و کاربردهای VMware vsan

نوشته های مشابه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

‫4 دیدگاه ها

  1. در بسیاری از موارد فایل های تکراری خیلی زیادی در فضای ذخیره سازی وجود دارند که با کاهش اونها و حذف رکوردهای تکراری میشه هزینه های فضا رو به شدت کاهش داد.

  2. در واقع Data Deduplication به مدیران Storage کمک می‌کند تا هزینه‌های مرتبط با داده‌های تکراری را کاهش دهند.

دکمه بازگشت به بالا