حتماً تا حالا شده که یه سایتی رو باز کنی یا یه ویدیویی رو پخش کنی و حس کنی که همه چیز یه ذره کندتر از حد معمول داره اتفاق میافته. این تأخیر کوچیک که شاید چندان به چشم نیاد، میتونه کل تجربه کاربری رو تحت تأثیر بذاره. اینجاست که مفهوم "Latency" یا همون تأخیر شبکهای وارد ماجرا میشه. تو این مقاله، قراره توضیح بدیم که Latency چیه، چرا مهمه، چه عواملی روی اون تأثیر میذارن و چطور میتونیم اون رو کاهش بدیم تا همه چی توی شبکهها سریع و روان پیش بره.
Latency همون تأخیریه که توی یه سیستم به وجود میاد. وقتی از "شبکه" صحبت میکنیم، منظورمون اینه که Latency مدت زمانیه که طول میکشه تا دادهها از یه نقطه به نقطه دیگه در شبکه برسن. حالا اگه یه شبکه Latency بالایی داشته باشه، یعنی زمان پاسخدهیش کندتره و برعکس، اگه Latency پایین باشه، پاسخها سریعتر میرسن.
درسته که بهطور تئوری دادهها باید با سرعت نور از اینترنت عبور کنن، ولی در عمل یه سری عوامل باعث میشن که این حرکت کمی کندتر بشه. این عوامل شامل فاصله، زیرساختهای اینترنت، اندازه بستههای داده، شلوغی شبکه و چند تا عامل دیگه میشن. در واقع، مجموع همه این تأخیرها همون چیزی رو میسازه که ما بهش میگیم "Latency" شبکه.
حالا چطور میشه این Latency رو کم کرد و کارایی شبکه رو بهتر کرد؟ سازمانها میتونن با استفاده از تکنولوژیهایی مثل شبکههای تحویل محتوا (CDN)، محاسبات لبهای (Edge Computing) و زیرشبکهبندی (Subnetting) دادهها رو بهتر توزیع کنن و ترافیک رو بهتر مدیریت کنن. همچنین بهروز نگهداشتن زیرساختها و استفاده از ابزارهای مدیریت عملکرد اپلیکیشنها هم میتونه کمک بزرگی باشه.
پایین نگهداشتن Latency شبکه خیلی مهمه چون مستقیماً روی کارایی، همکاری، عملکرد اپلیکیشنها و تجربه کاربری تأثیر میذاره. هرچی Latency بیشتر باشه، این موارد بیشتر آسیب میبینن. مخصوصاً توی دنیای امروز که شرکتها دارن به سمت دیجیتالی شدن میرن و بیشتر به اپلیکیشنها و خدمات ابری وابسته میشن، Latency پایین خیلی ضروریه.
مثلاً، فرض کن اگه Latency شبکه یه سازمان زیاد باشه و اپلیکیشنهاش درست کار نکنن یا زمان بارگذاریشون طولانی بشه، مشتریها احتمالاً سراغ راهحلهای دیگه میرن. امروزه هم افراد و هم سازمانها انتظار دارن که همه چی با سرعت برق و باد کار کنه. اگه یه سازمان از اپلیکیشنهایی استفاده کنه که به دادههای آنی وابستهان، Latency بالا میتونه کارایی رو پایین بیاره و ارزش اون اپلیکیشنها رو کم کنه.
همه کسبوکارها Latency پایین رو ترجیح میدن. ولی توی صنایع و مواردی که وابسته به دادههای حسگرها یا کامپیوترهای پرقدرت هستن، مثل تولیدات خودکار، عملیات از راه دور با ویدئو (مثل دوربینهایی که توی جراحیها استفاده میشن)، پخش زنده یا معاملات با فرکانس بالا، Latency پایین واقعاً برای موفقیت اون کار حیاتیه.
Latency بالا میتونه باعث بشه هزینهها الکی بالا بره. فرض کن یه سازمان بخواد عملکرد اپلیکیشن و شبکهش رو با افزایش یا تخصیص منابع محاسباتی، ذخیرهسازی و شبکه بهتر کنه. اگه به مشکلات Latency توجه نکنه، ممکنه کلی خرج کنه ولی هیچ بهبودی توی عملکرد، کارایی یا رضایت مشتریهاش نبینه.
اگه بخوای مسیر حرکت دادهها از دستگاه کاربر تا سرور و برعکس رو تصور کنی، راحتتر میتونی بفهمی که چی باعث Latency میشه و چه عواملی توش دخیلن. اینجا به چند دلیل رایج که باعث Latency شبکه میشن، اشاره میکنم:
خیلی ساده بگم، هرچی فاصله بین دستگاه کاربر و سروری که داره به درخواستش جواب میده بیشتر باشه، Latency هم بیشتر میشه. مثلاً تفاوت بین پاسخدهی یه سرور تو شیکاگو و یه سرور تو نیویورک به یه کاربر تو لسآنجلس ممکنه فقط چند میلیثانیه باشه. ولی توی این بازی، همین چند میلیثانیه هم میتونه مهم باشه و این زمانها جمع میشن.
حالا ببین دادهها از چه مسیری دارن عبور میکنن. اگه شبکهای از کابلهای فیبر نوری استفاده بشه (که معمولاً Latency کمتری دارن) یا یه شبکه بیسیم باشه (که معمولاً Latency بیشتری دارن) یا شاید هم یه شبکه پیچیده با چندین مسیر و واسطههای مختلف باشه.
نوع مسیری که برای انتقال دادهها استفاده میشه روی Latency تأثیر داره. همینطور، تعداد دفعاتی که دادهها باید از دستگاههای شبکه مثل روترها عبور کنن تا از یه بخش شبکه به بخش دیگه برسن هم مهمه. هرچی تعداد این پرشها بیشتر باشه، Latency هم بیشتر میشه.
اندازه بستههای داده و حجم کلی دادههای توی شبکه هم روی Latency تأثیر میذاره. بستههای بزرگتر زمان بیشتری برای انتقال نیاز دارن و اگه حجم دادهها از ظرفیت پردازشی زیرساخت شبکه بیشتر بشه، گلوگاهها ایجاد میشن و Latency افزایش پیدا میکنه.
سختافزارهای قدیمی یا ضعیف مثل سرورها، روترها، هابها، سوئیچها و سایر تجهیزات شبکه میتونن باعث افزایش Latency بشن. مثلاً اگه سرورها دادههای بیشتری از ظرفیتشون دریافت کنن، بستههای داده معطل میمونن و این باعث کاهش سرعت بارگذاری صفحات، دانلودها و عملکرد اپلیکیشنها میشه.
مواردی مثل تصاویر و ویدیوهای بزرگ، منابعی که جلوی بارگذاری رو میگیرن و کاراکترهای غیرضروری توی کد منبع صفحات وب هم میتونن باعث افزایش Latency بشن.
گاهی اوقات Latency به خاطر مشکلاتی توی سمت کاربره، مثل پهنای باند ناکافی، اتصالات اینترنت ضعیف یا تجهیزات قدیمی.
درسته که همه کسبوکارها Latency پایین رو ترجیح میدن، ولی توی بعضی صنایع و برای بعضی اپلیکیشنها این موضوع خیلی حیاتیتره.
اپلیکیشنهای آنالیز لحظهای، مثل حراجیهای آنلاین، شرطبندیهای اینترنتی و بازیهای چندنفره، حجم زیادی از دادههای لحظهای رو از منابع مختلف جمعآوری و تحلیل میکنن. کاربران این اپلیکیشنها به اطلاعات دقیق و سریع نیاز دارن تا تصمیمگیری کنن. برای همین، اونا به شبکههایی با Latency پایین نیاز دارن چون تأخیر میتونه ضررهای مالی به بار بیاره.
اپلیکیشنهای سازمانی اغلب دادهها رو از منابع مختلف مثل نرمافزارهای دیگه، دیتابیسهای تراکنشی، ابر و حسگرها جمعآوری و بهینهسازی میکنن. اگه توی این فرآیند Latency بالا باشه، عملکرد این اپلیکیشنها مختل میشه.
وقتی دو سیستم کامپیوتری از طریق یک API (رابط برنامهنویسی اپلیکیشن) با هم ارتباط برقرار میکنن، ممکنه پردازش سیستمها تا زمانی که API جواب بده متوقف بشه. Latency بالا میتونه مشکلاتی توی عملکرد اپلیکیشنها ایجاد کنه. مثلاً، یه سایت رزرو پرواز برای دریافت اطلاعات تعداد صندلیهای خالی از API استفاده میکنه. اگه Latency زیاد باشه، ممکنه سایت دیرتر واکنش نشون بده و تا زمانی که API پاسخ بده، ممکنه بلیت مورد نظرت توسط شخص دیگهای رزرو بشه.
توی بعضی کارها، مثل استفاده از دوربینهای جراحی از راه دور یا پهپادها برای عملیات جستجو و نجات، اپراتور باید با استفاده از ویدئو، دستگاهی رو از راه دور کنترل کنه. توی این موارد، داشتن شبکهای با Latency پایین بسیار مهمه تا از اتفاقات خطرناک جلوگیری بشه.
Latency شبکه رو با میلیثانیه اندازهگیری میکنن. این اندازهگیری معمولاً زمانی رو نشون میده که طول میکشه تا یه عملیات ارسال از سیستم مبدا شروع بشه و عملیات دریافت توی سیستم مقصد کامل بشه.
یکی از روشهای ساده برای اندازهگیری Latency، استفاده از دستور "ping" هست. این دستور، ابزاریه برای تست اتصال بین دو دستگاه یا سرور. توی این تست، یه بسته داده به یه سرور هدف ارسال و دوباره برگردونده میشه. زمان کل سفر این بسته، که بهش زمان رفت و برگشت (RTT) میگن، تقریباً دو برابر Latency هست، چون داده باید به سرور برسه و دوباره برگرده. البته باید بدونی که ping دقیقترین روش برای اندازهگیری Latency نیست چون دادهها میتونن از مسیرهای مختلفی عبور کنن و شرایط متفاوتی رو تجربه کنن.
بذار این سه تا مفهوم رو برات ساده توضیح بدم تا راحتتر متوجه بشی و دیگه با هم قاطی نشن.
همونطور که قبلاً گفتیم، Latency مدت زمانی هست که طول میکشه تا یه بسته داده از یه نقطه به نقطه دیگه توی شبکه برسه. این مفهوم بیشتر به زمان تأخیر اشاره داره.
پهنای باند در واقع ظرفیت شبکه است؛ یعنی میزان حجمی از دادهها که میتونه توی یه بازه زمانی از شبکه عبور کنه. مثلاً وقتی میشنوی سرعت اینترنت خونهت 100 مگابیت بر ثانیهست، در واقع دارن در مورد پهنای باند صحبت میکنن، نه سرعت. این یه سوءتفاهم رایجه که پهنای باند رو با سرعت یکی میدونن. پهنای باند ظرفیت انتقال دادهها رو نشون میده، ولی این که چقدر سریع این دادهها واقعاً منتقل میشن به عواملی مثل Latency و گذردهی بستگی داره.
اگه شبکه رو مثل یه لوله آب در نظر بگیری، پهنای باند همون عرض لولهست و Latency سرعتی که آب توی این لوله حرکت میکنه. وقتی پهنای باند کمتر باشه، Latency بیشتر میشه، بهویژه وقتی که مصرف شبکه در اوج خودش باشه. ولی جالبه بدونی که افزایش پهنای باند همیشه به معنی انتقال داده بیشتر نیست. در واقع، Latency میتونه بازدهی سرمایهگذاری روی زیرساختهای پهنای باند بالا رو کاهش بده.
گذردهی در واقع اندازهگیری مقدار دادههایی هست که توی یه بازه زمانی مشخص واقعاً از شبکه عبور میکنن. این عدد شامل میزان دادههایی هم میشه که بدون مشکل به مقصد میرسن و همچنین میزان از دست رفتن بستههای داده (packet loss) رو هم در نظر میگیره. معمولاً گذردهی رو با بیت در ثانیه اندازهگیری میکنن.
گذردهی در واقع تأثیر Latency روی پهنای باند شبکه رو اندازهگیری میکنه. نشون میده که بعد از در نظر گرفتن Latency، پهنای باند قابل استفاده چقدره. مثلاً، ممکنه پهنای باند یه شبکه 100 مگابیت بر ثانیه باشه، ولی به خاطر Latency، گذردهی واقعی اون شبکه در طول روز فقط 50 مگابیت بر ثانیه باشه و شبها تا 80 مگابیت بر ثانیه افزایش پیدا کنه.
یه عامل دیگه هم توی عملکرد شبکه مطرحه که بهش جیتر میگن. جیتر یعنی نوسان توی Latency جریانهای بستهها در شبکه. برای مثال، اگه Latency همیشه یه مقدار ثابت باشه بهتره، ولی اگه جیتر بالا باشه، یعنی Latency متغیره و این موضوع میتونه باعث از دست رفتن بستهها و مشکلات دیگه توی انتقال داده بشه.
جیتر همون تغییرات در Latency شبکه در طول زمانه. Latency باعث تأخیر در حرکت بستههای داده توی شبکه میشه، ولی جیتر زمانی حس میشه که این بستهها به ترتیبی که کاربر انتظار داره نرسن.
اگه بخوای این سه تا مفهوم رو ساده به خاطر بسپری، میتونی اینطور فکر کنی: پهنای باند مقدار دادهایه که میتونه توی شبکه حرکت کنه، گذردهی میزان دادهایه که واقعاً توی هر ثانیه منتقل میشه، و Latency هم مدت زمانی هست که طول میکشه تا این دادهها از یه نقطه به نقطه دیگه برسن.
اگه میخوای Latency شبکه رو کاهش بدی، بهتره از یه بررسی کلی شبکه شروع کنی. مثلاً از خودت بپرسی:
بیایم از موضوع فاصله شروع کنیم. کاربران کجا هستن؟ و سرورهایی که به درخواستهای اونها جواب میدن کجا قرار دارن؟ با پخش کردن سرورها و دیتابیسها در نقاط جغرافیایی نزدیکتر به کاربران، یه سازمان میتونه فاصله فیزیکی که دادهها باید طی کنن رو کمتر کنه و از مسیرهای غیر بهینه و پرشهای شبکهای جلوگیری کنه.
یکی از راههای توزیع دادهها در سطح جهانی استفاده از یه شبکه تحویل محتوا یا همون CDN هست. با استفاده از یه شبکه از سرورهای پخش شده، سازمان میتونه محتوای خودش رو به کاربران نزدیکتر کنه و فاصلهای که بستههای داده باید طی کنن رو کاهش بده. اما اگه سازمان بخواد بیشتر از ارائه محتوای کش شده پیش بره، چی؟
کامپیوتینگ لبهای یه استراتژی خوبه که به سازمانها اجازه میده محیط ابری خودشون رو از دیتاسنتر اصلی به مکانهای فیزیکی نزدیکتر به کاربران و دادههاشون گسترش بدن. با استفاده از کامپیوتینگ لبهای، سازمانها میتونن اپلیکیشنها رو نزدیکتر به کاربران اجرا کنن و Latency رو کاهش بدن.
یه سابنت در واقع یه شبکه کوچیکتر توی یه شبکه بزرگتره. با گروهبندی نقاط انتهایی که بهطور مداوم با هم در ارتباط هستن، میتونیم از مسیرهای غیر بهینه جلوگیری کنیم و Latency رو کاهش بدیم.
ابزارهای سنتی برای نظارت دیگه به اندازه کافی سریع یا جامع نیستن که مشکلات عملکرد رو در محیطهای پیچیده امروزی شناسایی و رفع کنن. برای پیشگیری از مشکلات، سازمانها میتونن از راهکارهای پیشرفتهای استفاده کنن که به صورت لحظهای نظارت کامل و نقشهبرداری از وابستگیها رو ارائه میدن. این امکانات به تیمها اجازه میده مشکلات عملکردی که به Latency شبکه کمک میکنن رو شناسایی، رفع و پیشگیری کنن.
اگه بارهای کاری منابع محاسباتی، ذخیرهسازی و شبکه مناسب نداشته باشن، Latency افزایش پیدا میکنه و عملکرد ضعیف میشه. سعی در حل این مشکل با تخصیص بیش از حد منابع، غیر بهینه و هدر دادن منابع هست و تلاش برای تطبیق دستی تقاضای پویا با منابع توی زیرساختهای مدرن پیچیده هم غیرممکنه.
یه راهکار مدیریت منابع اپلیکیشن (ARM) که به صورت لحظهای مصرف منابع و عملکرد اپلیکیشنها و اجزای زیرساخت رو تحلیل میکنه، میتونه مشکلات منابع رو حل کنه و Latency رو کاهش بده.
تستهایی مثل دستور ping میتونن یه اندازهگیری ساده از Latency شبکه ارائه بدن، ولی برای شناسایی و رفع مشکلات کافی نیستن. سازمانها میتونن از راهکار مدیریت عملکرد شبکه استفاده کنن که یه پلتفرم یکپارچه برای شناسایی، رفع و پیشگیری از مشکلات عملکرد شبکه و کاهش Latency فراهم میکنه.
تیمهای IT میتونن مطمئن بشن که دارن از سختافزار، نرمافزار و تنظیمات شبکه بهروز استفاده میکنن و زیرساخت سازمانشون میتونه نیازهای فعلی رو برآورده کنه. انجام بررسیها و نگهداریهای منظم شبکه هم میتونه به کاهش مشکلات عملکرد و Latency کمک کنه.
توسعهدهندهها میتونن اقدامات لازم رو انجام بدن تا ساختار صفحات وب باعث افزایش Latency نشه، مثل بهینهسازی ویدیوها، تصاویر و سایر منابع صفحات برای بارگذاری سریعتر، و از طریق فشردهسازی کدها.
Latency یعنی تأخیری که بین انجام یه کار توسط کاربر توی یه شبکه یا اپلیکیشن وب و دریافت جواب اون کاربر رخ میده.
Latency خوب بستگی به کاربر و اپلیکیشن داره، ولی به طور کلی هر چیزی زیر 150 میلیثانیه قابل قبول و خوب محسوب میشه.
Latency پایین معمولاً بهتره، چون وقتی Latency پایین باشه، کاربر سریعتر میتونه به چیزی که میخواد برسه.
Latency بالا یعنی فاصله زمانی زیادی بین کلیک یا تپ کردن کاربر و دریافت نتیجه مورد نظرش وجود داره.
در نهایت، Latency یکی از مهمترین عواملیه که میتونه تجربه کاربری رو در شبکهها تحت تأثیر قرار بده. چه بخوای یه بازی آنلاین انجام بدی، چه یه ویدیوی زنده پخش کنی یا حتی فقط یه سایت رو مرور کنی، Latency پایین میتونه همه اینا رو بهبود ببخشه. با درک بهتر عوامل مؤثر بر Latency و بهکارگیری راهکارهای مناسب، میتونی مطمئن بشی که شبکه و اپلیکیشنهای تو همیشه در بهترین حالت خودشون عمل میکنن و کاربران تجربهای سریع و بدون دردسر خواهند داشت. پس اگه دیدی سرعت شبکهت کم شده، بدون که یه جایی Latency بالاست و باید دست به کار بشی!