بارگزاری کتابخانه عملیات امنیت سایبری، در حال پردازش ...
جستجو برای:
سبد خرید 0
  • آموزش‌ها
    • کلاس حضوری و آنلاین
    • دوره‌های آموزشی
      • دوره آموزش اسپلانک | کاملترین دوره اسپلانک 2025
      • دوره آموزش Soc | مرکز عملیات امنیت
  • سرویس
    • مشاوره
    • SOC
    • لایسنس اسپلانک
    • اسپلانک
      • سرویس اسپلانک
      • Splunk Enterprise Security (ES)
      • Splunk Enterprise
      • Splunk User Behavior Analytics
      • Splunk SOAR (Security Orchestration, Automation and Response)
  • کتابخانه
    • پادکست
    • کتاب
    • ویدئو
    • مقالات
  • درباره ما
    • ارتباط با ما
کتابخانه مرکز عملیات امنیت
  • آموزش‌ها
    • کلاس حضوری و آنلاین
    • دوره‌های آموزشی
      • دوره آموزش اسپلانک | کاملترین دوره اسپلانک 2025
      • دوره آموزش Soc | مرکز عملیات امنیت
  • سرویس
    • مشاوره
    • SOC
    • لایسنس اسپلانک
    • اسپلانک
      • سرویس اسپلانک
      • Splunk Enterprise Security (ES)
      • Splunk Enterprise
      • Splunk User Behavior Analytics
      • Splunk SOAR (Security Orchestration, Automation and Response)
  • کتابخانه
    • پادکست
    • کتاب
    • ویدئو
    • مقالات
  • درباره ما
    • ارتباط با ما
ورود / عضویت
0
: :
ارسال شده توسط محمد قنبری
پادکست

سلام، من محمد قنبری هستم و شما دارید به اپیزود پنجم پادکست سیم‌باز گوش می‌دید.
این پادکست برای اوناییه که دورهٔ Splunk Enterprise Security من رو گذروندن یا در مسیر یادگیریش هستن و همچنین مهندسان SIEM طراحی شده و هدفمان اینه که مفاهیم تاکتیکی، تجربه‌های واقعی، و دیدگاه‌های تحلیلی رو بیرون از فضای کلاس، با زبانی ساده‌تر ادامه بدیم.
بریم شروع کنیم.

به یک قسمت دیگر از پادکست ما خوش آمدید. امروز می‌خواهیم به قلب تپنده‌ی هر سیستم مدیریت رخداد و اطلاعات امنیتی یا SIEM سفر کنیم.

تصور کنید شما یک سرآشپز حرفه‌ای هستید و یک کامیون پر از مواد اولیه‌ی خام و ناشناخته جلوی آشپزخانه‌ی شما خالی شده. سبزیجات گِلی، گوشت‌های بسته‌بندی‌نشده و ادویه‌های ناشناس. این مواد اولیه، دقیقاً همان لاگ‌های خامی هستند که از سراسر سازمان به سمت ما سرازیر می‌شوند. هنر شما به عنوان یک سرآشپز این است که این مواد را تمیز کنید، خرد کنید، مواد بی‌ارزش را دور بریزید، طعم‌دهنده‌های مناسب را اضافه کنید و در نهایت، یک غذای لذیذ و ارزشمند تحویل دهید.

فرآیند پردازش لاگ در یک SIEM، دقیقاً همین هنر است. در این قسمت، ما روی مهم‌ترین و فنی‌ترین مرحله‌ی این آشپزی تمرکز می‌کنیم: مرحله‌ی «فیلتر». می‌خواهیم ببینیم پلتفرم‌های قدرتمندی مثل Splunk چگونه این «جادو» را انجام می‌دهند و داده‌های خام را به هوش امنیتی تبدیل می‌کنند. با ما همراه باشید.

2.0 بخش اول: چرا فیلتر کردن لاگ‌ها اینقدر حیاتی است؟

مرحله‌ی فیلتر در یک پایپ‌لاین SIEM، فقط یک گام فنی نیست؛ بلکه مغز متفکر کل فرآیند است. اینجا جایی است که ما تصمیمات استراتژیک می‌گیریم و داده‌های بی‌ارزش را از داده‌های ارزشمند جدا می‌کنیم. این مرحله به طور کلی سه وظیفه‌ی اصلی و حیاتی بر عهده دارد:

  1. پارس کردن (Parsing): این اولین و بنیادی‌ترین کار است. ما پیام‌های لاگ خام و بدون ساختار را می‌شکنیم و فیلدهای معنادار مانند آدرس IP، نام کاربری یا شناسه‌ی رخداد را از دل آن‌ها استخراج می‌کنیم.
  2. فیلتر کردن یا حذف (Filtering/Dropping): در این مرحله، ما لاگ‌های بی‌ارزش و نویزها را شناسایی کرده و به سادگی دور می‌ریزیم. این کار باعث کاهش چشمگیر حجم ذخیره‌سازی، کاهش هزینه‌ها و افزایش فوق‌العاده‌ی کارایی سیستم می‌شود.
  3. غنی‌سازی و اصلاح (Enrichment/Modification): پس از استخراج و پاک‌سازی، نوبت به افزودن ارزش می‌رسد. ما به داده‌ها اطلاعات زمینه‌ای اضافه می‌کنیم؛ مثلاً موقعیت جغرافیایی یک IP را مشخص می‌کنیم یا فرمت‌های زمانی را یکپارچه می‌سازیم تا تحلیل دقیق‌تری داشته باشیم.

درست است که این مرحله بیشترین زمان و انرژی را از تیم مهندسی SIEM می‌گیرد، اما به همان اندازه، بیشترین ارزش را به داده‌ها اضافه می‌کند و سنگ بنای تمام تحلیل‌های امنیتی دقیق و همبسته‌سازی‌های هوشمندانه است.

خب، بیایید با اولین و بنیادی‌ترین گام شروع کنیم: هنر استخراج اطلاعات از دل متون خام یا همان پارس کردن.

3.0 بخش دوم: هنرِ پارس کردن (Parsing) – تبدیل متن خام به اطلاعات معنادار

فرمت یک لاگ، مستقیماً میزان تلاشی که ما باید برای پارس کردن آن صرف کنیم را مشخص می‌کند و این موضوع تأثیر مستقیمی بر مقیاس‌پذیری کل سیستم SIEM ما دارد.

فرمت JSON یک فرمت ایده‌آل است. چون ساختاریافته است، فیلدها و مقادیر از قبل مشخص شده‌اند و فرآیند پارس کردن یا به طور کامل حذف می‌شود یا به سادگی انجام می‌گیرد. اما چالش اصلی ماجرا، فرمت‌های سفارشی یا اختصاصی (Proprietary) هستند که توسط بسیاری از سیستم‌ها تولید می‌شوند و هیچ ساختار استانداردی ندارند.

اینجاست که ابزار قدرتمند Regex یا Regular Expressions وارد میدان می‌شه. در هر پروژه‌ی بزرگی که کار کردم، تسلط بر Regex نقطه‌ی تمایز بین یک مهندس معمولی و یک معمار ارشد بوده. می‌شه بهش گفت «سس نینجای پارس کردن دستی». با Regex می‌توان تقریباً هر الگویی را از دل متن استخراج کرد، اما این قدرت بهایی هم دارد: عبارات Regex می‌توانند بسیار پیچیده، سخت‌خوان و از نظر محاسباتی پرهزینه باشند.

برای مثال، در Regex از کاراکترهای خاصی استفاده می‌کنیم:

  • \d برای تطبیق هر کاراکتر رقم (digit).
  • \s برای تطبیق هر کاراکتر فاصله (whitespace).
  • * برای تطبیق صفر یا چند بار تکرار کاراکتر قبلی.

اما نوشتن این عبارات پیچیده برای هر لاگ، کار عاقلانه‌ای نیست. به همین دلیل، پلتفرم‌هایی مانند Splunk از مفهومی به نام «الگوهای از پیش ساخته شده» (Grok Patterns) استفاده می‌کنند. به جای نوشتن یک Regex طولانی در هر بار، ما یک بار آن را در قالب یک الگو به نام IP تعریف می‌کنیم و از آن پس، به سادگی از این نام استفاده می‌کنیم.

برای اینکه درک کنید چرا این الگوها یک ضرورت هستند و نه فقط یک امکان رفاهی، اجازه بدید خودِ Regex واقعی برای استخراج یک آدرس IPv4 رو براتون توصیف کنم: یک رشته‌ی ترسناک و طولانی از پرانتز، علامت سوال، کروشه، اعداد و حروف که چندین خط طول می‌کشه. آیا واقعاً می‌خواهید همچین چیزی رو هر بار برای هر لاگ تایپ کنید و نگهداری‌اش کنید؟ قطعاً نه.

اینجاست که الگوها به کمک ما میان. فرض کنید لاگ ما این متنه: «The dog is brown». الگوی ما برای پارس کردنش به این شکل نوشته می‌شه: The %{WORD:animal} is %{WORD:color}. نتیجه‌اش دو فیلد جدیده: یکی به اسم animal با مقدار dog و یکی به اسم color با مقدار brown. این الگو روی لاگ‌های مشابه مثل «The cat is orange» هم به درستی کار می‌کنه.

اجازه بدید این سینتکس رو بشکافیم: اینجا، علامت درصد و آکولاد به سیستم می‌گه که یک الگو رو فراخوانی کنه. WORD اسم الگوئه، و بعد از دو نقطه، animal، اسمیه که ما برای فیلد جدید انتخاب می‌کنیم. این کار فرآیند پارس کردن را بسیار ساده‌تر، خواناتر و قابل مدیریت‌تر می‌کند.

گاهی هم برخی فیلدها اختیاری هستند؛ یعنی در برخی لاگ‌ها وجود دارند و در برخی دیگر نه. برای این موارد، می‌توانیم چندین الگوی تطبیق تعریف کنیم یا بخش‌هایی از الگوی اصلی را به عنوان اختیاری علامت‌گذاری کنیم تا سیستم بتواند هر دو حالت را مدیریت کند.

اما خوشبختانه همیشه مجبور نیستیم با Regex دست و پنجه نرم کنیم. بسیاری از لاگ‌ها فرمت‌های ساختاریافته‌تری دارند که کار ما را ساده‌تر می‌کنند.

4.0 بخش سوم: پردازش فرمت‌های ساختاریافته و رویکردهای نوین

کار کردن با لاگ‌های ساختاریافته، بار پردازشی سنگینی را از روی سرور مرکزی SIEM برمی‌دارد و فرآیند دریافت و پردازش داده را به شدت تسریع می‌کند. دو فرمت ساختاریافته‌ی رایج عبارتند از:

  • CSV (Comma Separated Values):
    • در این فرمت، فیلدها با یک جداکننده (Separator) مشخص از هم جدا شده‌اند. این جداکننده لزوماً کاما نیست و می‌تواند کاراکترهای دیگری مثل ; یا | باشد. ابزارهای SIEM به راحتی می‌توانند این فیلدها را بر اساس جداکننده استخراج کنند.
  • KV (Key-Value Pairs):
    • این فرمت که در لاگ‌های فایروال بسیار رایج است، شامل جفت‌های «نام فیلد=مقدار» است. پارس کردن این فرمت نیز بسیار ساده است چون نام فیلدها از قبل در خود لاگ مشخص شده‌اند.

اما یک رویکرد نوین و استراتژیک وجود دارد که بازی را عوض می‌کند: تبدیل فرمت لاگ در مبدأ. ایجنت‌های مدرنی که روی سیستم‌ها نصب می‌شوند، می‌توانند قبل از ارسال لاگ‌ها، آن‌ها را به یک فرمت استاندارد و ساختاریافته مانند JSON تبدیل کنند. برای مثال، یک ایجنت می‌تواند لاگ‌های پیچیده‌ی ویندوز را در همان سرور مبدأ به فرمت JSON تبدیل کرده و سپس برای SIEM ارسال کند. این کار بار پردازشی را از روی سرور مرکزی SIEM برمی‌دارد، مسیریابی لاگ‌ها را بر اساس نوع آن‌ها ساده‌تر می‌کند و مقیاس‌پذیری کل سیستم را به شدت افزایش می‌دهد.

حالا که فیلدهایمان را با موفقیت استخراج کردیم، کار تمام نشده. اغلب اوقات داده‌های استخراج‌شده نیاز به کمی اصلاح و پاک‌سازی دارند.

5.0 بخش چهارم: اصلاح و پاک‌سازی داده‌ها (Data Modification)

داده‌های خام، حتی پس از استخراج فیلدها، ممکن است هنوز کامل و آماده‌ی تحلیل نباشند. ممکن است فرمت زمانی اشتباهی داشته باشند، در منطقه‌ی زمانی متفاوتی ثبت شده باشند یا اساساً اطلاعات بی‌ارزشی باشند که فقط فضا اشغال می‌کنند.

یکی از بزرگترین چالش‌ها، نرمال‌سازی زمان (Date/Time Normalization) است. لاگ‌ها از سیستم‌های مختلف با فرمت‌های زمانی بسیار متنوع و گاهی بدون مشخص بودن منطقه‌ی زمانی (Time Zone) به دست ما می‌رسند. برای تحلیل‌های دقیق و به خصوص برای همبسته‌سازی (Correlation) صحیح رخدادها در سیستم‌های مختلف، حیاتی است که تمام زمان‌ها به یک فرمت استاندارد و یکپارچه مانند UTC تبدیل شوند.

مفهوم مهم بعدی، حذف لاگ‌های بی‌ارزش (Dropping Logs) است. بسیاری از لاگ‌ها، مانند لاگ‌های سطح دیباگ (debug) یا برخی Event ID های بسیار پر سر و صدای ویندوز، هیچ ارزش تحلیلی ندارند و فقط حجم زیادی از فضای ذخیره‌سازی را مصرف می‌کنند. حذف این لاگ‌ها در همان ابتدای پایپ‌لاین (که در Splunk با ارسال آن‌ها به nullQueue انجام می‌شود)، تأثیر فوق‌العاده‌ای در کاهش هزینه‌ها و افزایش عملکرد کل سیستم دارد.

همچنین، باید فیلدهای غیرضروری را حذف کنیم (Removing Fields). نگهداری هر فیلد اضافی، فضا مصرف می‌کند و بر عملکرد جستجوها تأثیر منفی می‌گذارد. برای مثال، پس از اینکه پیام خام یک لاگ به طور کامل پارس شد و تمام فیلدهای مورد نیاز استخراج شدند، دیگر نیازی به نگهداری فیلد پیام خام اصلی نیست.

پس از پاک‌سازی، داده‌های ما تمیز و قابل استفاده هستند، اما هنوز «خاموش»اند. حالا نوبت به جذاب‌ترین بخش ماجرا می‌رسه: جایی که ما به این داده‌ها «هوش» و «زمینه» تزریق می‌کنیم تا بتونن داستان واقعی رو برای ما تعریف کنن. به این فرآیند می‌گیم غنی‌سازی.

6.0 بخش پنجم: غنی‌سازی لاگ‌ها – افزودن ارزش و زمینه (Log Enrichment)

غنی‌سازی لاگ را می‌توان مانند «افزودن ویتامین به غذا» در نظر گرفت. این مرحله اگرچه اجباری نیست، اما دقیقاً همان چیزی است که تفاوت بین یک سیستم SIEM معمولی و یک پلتفرم تحلیل امنیتی پیشرفته را رقم می‌زند. در این مرحله، ما داده‌های موجود را با اطلاعات بیرونی ترکیب می‌کنیم تا زمینه‌ی بیشتری برای تحلیل فراهم آوریم.

بیایید چند تکنیک کلیدی غنی‌سازی را با هم مرور کنیم:

  • اطلاعات جغرافیایی (GeoIP): با استفاده از یک آدرس IP، می‌توانیم موقعیت جغرافیایی آن مانند کشور و شهر را به لاگ اضافه کنیم. تصور کنید یک هشدار نشت اطلاعات (IDS alert) دریافت می‌کنید. اگر IP مقصد در همان شهر سازمان شما باشد، ممکن است با یک تهدید داخلی روبرو باشید. اما اگر IP در یک کشور دیگر باشد، معنای هشدار کاملاً تغییر کرده و به یک حمله‌ی خارجی اشاره دارد. (ابزارهایی مانند دستور iplocation در Splunk این کار را انجام می‌دهند).
  • اطلاعات DNS: با تبدیل IP به نام دامنه (Reverse DNS) و بالعکس، زمینه‌ی بیشتری به لاگ‌ها اضافه می‌کنیم. تحلیل لاگی که در آن google.com وجود دارد، برای یک تحلیلگر انسانی بسیار ساده‌تر از تحلیل لاگی با آدرس IP آن است.
  • ناشناس‌سازی (Anonymization): گاهی به دلیل قوانین حریم خصوصی، باید داده‌های حساس مانند آدرس IP کاربران را حذف یا جایگزین کنیم. این کار معمولاً با هش کردن مقدار فیلد انجام می‌شود. اما یک نکته‌ی بسیار مهم وجود دارد: برای فضاهای مقادیر کوچک مانند آدرس‌های IPv4، این روش در مقابل حملات brute-force آسیب‌پذیر است. یک مهاجم می‌تواند تمام ۴ میلیارد آدرس IP ممکن را هش کرده و با مقایسه‌ی نتایج، مقدار اصلی را پیدا کند. برای امن کردن این فرآیند، حتماً باید از یک کلید (key) یا نمک (salt) در فرآیند هش کردن استفاده کرد.
  • دستکاری فیلدها و استانداردسازی: ابزارهای مختلفی برای کارهای رایج مانند تغییر حروف به بزرگ یا کوچک، تقسیم یک فیلد به چند بخش، یا افزودن و حذف تگ‌ها وجود دارد. اما یکی از حیاتی‌ترین کارها، تغییر نام فیلدها (Field Renaming) برای استانداردسازی است. ممکن است یک منبع لاگ، آدرس IP را با نام IP، دیگری با نام ip و سومی با IPAddress ارسال کند.
  • با تغییر نام همه‌ی این‌ها به یک نام استاندارد مانند src_ip، ما امکان همبسته‌سازی (correlation) بین منابع مختلف را فراهم می‌کنیم. این کار فقط برای زیبایی نیست. این اساس چیزیه که به ما اجازه می‌ده یک قانون همبسته‌سازی (Correlation Rule) بنویسیم که هم روی لاگ‌های فایروال Palo Alto کار کنه، هم Cisco و هم Fortinet، بدون اینکه سه تا قانون جدا بنویسیم. این قدرت واقعی یک مدل داده‌ی مشترک مثل CIM در Splunk است.
  • منطق سفارشی (Custom Logic): برای کارهای بسیار پیچیده که ابزارهای استاندارد پاسخگو نیستند، می‌توان از زبان‌های برنامه‌نویسی مانند پایتون، برای مثال برای ساختن Custom Search Command ها در Splunk، استفاده کرد. دو مثال قدرتمند از این رویکرد عبارتند از:
    1. فراخوانی یک API خارجی برای دریافت اطلاعات بیشتر درباره یک فایل هش یا یک دامنه.
    2. محاسبه‌ی طول یک فیلد. برای مثال، طول یک URI در درخواست وب. URIهای بسیار طولانی می‌توانند نشانه‌ی حملات SQL Injection باشند، یا یک دستور PowerShell که طول بسیار زیادی دارد، ممکن است یک اسکریپت کدگذاری‌شده و مخرب باشد.

7.0 جمع‌بندی و نکات پایانی

همانطور که دیدیم، فرآیند پردازش لاگ یک خط مونتاژ سه‌مرحله‌ای و هوشمند است: ورودی (Input)، فیلتر و غنی‌سازی (Filter/Enrich)، و در نهایت خروجی (Output).

هر تحلیلگر یا معماری که در حال طراحی یک پایپ‌لاین پردازش لاگ است، باید این سوالات اساسی را از خود بپرسد:

  • آیا واقعاً به تمام این لاگ‌ها نیاز دارم؟ کدام‌ها را می‌توانم با خیال راحت حذف کنم؟
  • کدام لاگ‌ها برای معنادار شدن نیاز به اصلاح و پاک‌سازی دارند؟
  • چگونه می‌توانم با استفاده از داده‌های موجود، ارزش و زمینه‌ی بیشتری به این لاگ‌ها اضافه کنم؟
  • چه استراتژی نام‌گذاری استانداردی برای فیلدها باید داشته باشم تا همبسته‌سازی بین منابع مختلف آسان‌تر شود؟

به خاطر داشته باشید، سرمایه‌گذاری زمان و انرژی در این مرحله، شاید در ابتدا سخت به نظر برسد، اما در نهایت پایه‌ای محکم برای ساختن یک سیستم SIEM کارآمد، هوشمند و مقیاس‌پذیر است؛ سیستمی که می‌تواند سیگنال‌های واقعی تهدید را از میان انبوهی از نویزها تشخیص دهد.

از اینکه در این قسمت با ما همراه بودید سپاسگزاریم.

دانلود مستقیم

دانلود مستقیم
برچسب ها: سیم بازمرکز عملیات امنیت
قبلی سیم باز فصل اول قسمت چهارم - مهندسی pipeline دیتا - جمع‌آوری و پردازش هوشمند لاگ‌ها با اسپلانک
بعدی سیم باز فصل اول قسمت ششم - نقش کلیدی Message Broker در معماری SIEM

پست های مرتبط

15 اردیبهشت 1405

سیم باز فصل دوم قسمت اول: شکار تهدیدات پنهان با Splunk و لاگ‌های معمولی

mohammad ghanbari
ادامه مطلب

23 فروردین 1405

اتصال Threat Intelligence در Splunk ES به پورتال شاخص‌های آلودگی AFTA: راهنمای جامع و عملیاتی

محمد قنبری
ادامه مطلب

19 بهمن 1404

الفبای SOAR قسمت ششم – فقط ابزار نخرید، استراتژی بسازید!

محمد قنبری
ادامه مطلب

19 بهمن 1404

الفبای SOAR قسمت پنجم – کالبدشکافی SOAR: زیر کاپوت این ماشین امنیتی چه خبره؟

محمد قنبری
ادامه مطلب

19 بهمن 1404

الفبای SOAR قسمت چهارم – هنر پاسخ‌دهی (Response)

محمد قنبری
ادامه مطلب

دیدگاهتان را بنویسید لغو پاسخ

دسته‌بندی مقالات
  • چارچوب موفقیت اسپلانک – تعیین هدف و محدوده پیاده‌سازی Splunk
  • معرفی چارچوب عملیاتی برای اسقرار موفق اسپلانک
  • سیم باز فصل دوم قسمت اول: شکار تهدیدات پنهان با Splunk و لاگ‌های معمولی
  • اتصال Threat Intelligence در Splunk ES به پورتال شاخص‌های آلودگی AFTA: راهنمای جامع و عملیاتی
  • الفبای SOAR قسمت ششم – فقط ابزار نخرید، استراتژی بسازید!
محصولات
  • دوره آموزشی Splunk Fundamentals 1 دوره آموزشی Splunk Fundamentals 1
    رایگان!
  • دوره آموزشی Using Splunk Enterprise Security دوره آموزشی Using Splunk Enterprise Security
    4,000,000 تومان
  • دوره آموزشی Splunk Fundamentals 2 دوره آموزشی Splunk Fundamentals 2
    رایگان!
  • دوره آموزشی Administering Splunk Enterprise Security دوره آموزشی Administering Splunk Enterprise Security
    4,000,000 تومان
  • دوره آموزشی Splunk Enterprise System Administration دوره آموزشی Splunk Enterprise System Administration
    4,000,000 تومان
SOCLib | محصولات و خدمات امنیت سایبری

در مجموعه آموزشی SOCLib با تمرکز بر آموزش و خدمات در حوزه‌های امنیت سایبری تلاش می‌کنیم تا دانش و مهارت‌های لازم را در اختیار علاقه‌مندان قرار دهیم. وب‌سایت ما شامل مجموعه‌ای گسترده از مقالات تخصصی و دوره‌های آموزشی ویدیویی است که از سطح مقدماتی تا پیشرفته را پوشش می‌دهد. هدف ما ارائه آموزش‌های باکیفیت و کاربردی در بستر آموزش مجازی است تا افراد بتوانند مسیر یادگیری خود را با انعطاف‌پذیری و دسترسی آسان طی کنند.

دسترسی سریع
  • آموزش اسپلانک
  • خدمات اسپلانک
  • آموزش soc
  • خدمات soc
  • درباره ما
  • ارتباط با ما
نمادها
© 1404. مجموعه آموزشی SOClib - طراحی و توسعه توسط تیم توسعه وردپرس
ورود
استفاده از شماره تلفن
آیا هنوز عضو نشده اید؟ ثبت نام کنید
بازیابی رمز عبور
استفاده از شماره تلفن
ثبت نام
قبلا عضو شده اید؟ ورود به سیستم
Protected by   
آخرین اطلاعیه ها
لطفا برای نمایش اطلاعیه ها وارد شوید
سبد خرید شما