متخصص علم داده
(data science)

با تدریس   مسعود کاویانی

بیش از ۹۰ ساعت
۲۰۷ جلسه
۱ سال پشتیبانی
گارانتی بازگشت ۱۰۰ درصدی وجه

توضیحات دوره

داده کاوی زمانی جذاب است که شما یک تحلیل‌گر داده حرفه‌ای باشید و نه فقط در آرزوی انجام آن. اگر می‌خواهید‌ از الان تا آینده خیال‌تان را بابت داشتن یک شغل خوب و خوش‌درآمد در هرجای جهان راحت کنید و با خیال آسوده پیر شوید، یادگیری داده کاوی و ماشین لرنینگ همان مهارتی‌ست که جادوگرها در گوی آینده‌نمای خود می‌بینند. آموزش پایتون برای داده‌کاوی چیزی‌ست که بلندپروازها و افراد جسور نمی‌توانند در برابر یادگیری آن مقاومت کنند. حالا که در انتخاب این حوزه جسارت لازم را دارید، بهتر است ادامه راه را هم بررسی کنیم و ببینیم چه مسیر مطمئنی برای یادگیری علم داده با پایتون در پیش‌رو داریم.

دوره‌ متخصص پایتون برای داده کاوی با هدف تدریس تمامی مباحث و سرفصل‌های لازم برای تسلط و آمادگی دانشجویان جهت ورود به بازار کار ارائه شده است. در این دوره‌‌ کامل‌ترین سرفصل‌های پایتون برای داده کاوی به صورت غیرحضوری تدریس می‌شود و دانشجویان پس از مشاهده جلسات امکان پرسش و پاسخ، رفع اشکال، انجام تمرین، انجام آزمون‌های مقطعی و رتبه‌بندی خواهند داشت. پس از پایان دوره کسانی که در آزمون‌های جامع و ارزیابی فنی بالاترین نمرات را کسب کنند، جهت استخدام به شرکت‌هایی معرفی می‌شوند که قصد دارند از طریق مجموعه سون‌لرن برنامه‌نویس موردنظر خود را جذب کنند.

چرا باید یک محقق علم داده شوم ؟

  • بسیاری از شرکت‌های بزرگ داخلی و خارجی با حجم انبوهی از داده‌های تولید شده توسط کاربران مواجه هستند و این باعث افزایش تقاضا برای جذب نیروی متخصص در این حوزه می‌شود.
  • اگر قصد مهاجرت داشته باشید داشتن مهارت و رزومه در این زمینه می‌تواند فرایند کسب درآمد در کشور مقصد را ساده کند.
  • به‌دلیل کمبود نیروی متخصص علم داده در شرکت‌های داخلی، در صورت داشتن مهارت کافی امکان جذب نیرو همراه با درآمد بالا توسط شرکت‌ها فراهم است.
  • علم داده نیز مانند ماشین لرنینگ یکی از شاخه‌های مهم فناوری است و بر مبنای پایتون فعالیت می‌کند. بنابراین یادگیری آن می‌تواند زمینه ساز ورود شما به سایر حوزه‌های مهم باشد.


این دوره
برای چه کسانی
مناسـب اسـت؟

  • کسانی که به داشتن مشاغل مهم و پردرآمد حوزه تکنولوژی در ایران علاقه دارند.
  • کسانی که قصد مهاجرت دارند و به‌دنبال تضمین شغلی هستند.
  • کسانی که به کار با داده‌ها و تحلیل علاقه دارند.
  • کسانی که به‌دنبال امتیاز ویژه برای پذیرش تحصیلی در خارج از کشور هستند.

این دوره
برای چه کسانی
مناسـب نیست؟

  • کسانی که وقت کافی برای انجام تمرین ندارند
  • کسانی که به ارتقای درآمد و سطح شغلی خود فکر نمی‌کنند
  • کسانی که مشاغل روتین و درآمد معمولی را به مشاغل پرچالش و به‌روز ترجیح می‌دهند

ویژگی های دوره

آموزش مهارت‌محور به این معنی‌ست که در طول دوره و باتوجه به میزان پیچیدگی هر مبحث آموزشی تمرین‌، آزمون و پروژه‌های مختلفی برای شما در نظر گرفته شده است تا یادگیری خود را تکمیل کنید. همچنین برگزاری وبینارهای متعدد و عضویت در گروه تلگرامی دوره امکان ارتباط با اساتید، منتورها و سایر دانشجویان را برای شما فراهم می‌کند. وضعیت آموزشی هر دانشجو برای منتورهای دوره قابل رصد و ارزیابی‌ست زیرا منتورها از بین دانشجویان برتر انتخاب شده‌اند و به‌خوبی با فرایند آموزشی و چالش‌های دوره آشنایی دارند. پایبندی به این متد آموزشی علاوه‌بر ارتقا سطح مهارتی که دارید، شما را با چالش هاى فنى و نحوه مدیریت آن‌ها آشنا مى كند و اين همان چيزى‌ست كه برای حضور در بازار كار به آن نياز داريد.

هزینه‌ای که بابت دوره پرداخت می‌کنید تا 1 ماه در اختیار خودِ شماست. اگر پس از خرید دوره به‌صورت جامع، به هر دلیلی از شرکت در آن منصرف شدید تا ١ ماه پس از خريد امكان انصراف و بازگشت كامل وجه برای شما درنظر گرفته شده است. برای انصراف از دوره لازم است در بازه زمانی تعیین شده درخواست خود را با پشتیبانی مطرح کرده و حداکثر 25% از دوره را مشاهده کرده باشید. پس از انصراف همواره منتظر نظرات و پیشنهادات شما برای بهبود کیفیت دوره و نحوه ارائه آن‌ها هستیم و امیدواریم در حوزه موردنظر خود به موفقیت و فرصت‌های بزرگی دست پیدا کنید.

هیچ سوالی بی‌جواب نخواهد ماند. پس از ورود به دوره امكان پرسش و پاسخ و رفع اشكال براى شما فراهم است. شما می‌توانید در هر ساعتی از شبانه روز سوالات خود را مطرح کنید و اساتید یا منتورهای دوره در سريع‌ترين زمان ممكن به شما پاسخ خواهند داد. حضور در این فضای تعاملی و همراهی با دیگران می‌تواند در ارتقای مهارت‌های نرم دانشجویان و ایجاد یک رقابت سالم نقش موثری داشته باشد.

فعالیت‌های آموزشی تعریف شده در دوره مانند مشاهده جلسات، تمرین، آزمون، پروژه، پاسخ دادن به سوال دیگران و غیره با شاخصی به‌نام xp ارزیابی می‌شوند که منجربه رتبه‌بندی دانشجویان خواهد شد. به این معنی که دانشجویان با انجام هر کدام از موارد بالا و کسب امتیاز (xp) مربوط به آن فرایند، جایگاه خود را در رتبه‌بندی دوره ارتقا می‌دهند. طبیعتا دانشجویانی که xp بیشتری دارند نسبت به دیگران از رتبه و مهارت بهتری برخوردار هستند و آمادگی بیشتری برای ارزیابی‌های پایان دوره و کسب موقعیت‌های شغلی دارند. هر فعالیتی xp مشخصی دارد تا علاوه‌بر تشویق دانشجو برای پایبندی به آموزش، یک معیار مشخص و عادلانه برای انتخاب دانشجویان برتر ارائه دهد. بدین ترتیب شما می‌توانید میزان مشارکت و پیشرفت خود را با دیگران مقایسه و در فرصت باقی‌مانده از دوره، برای بهبود وضعیت آموزشی خود تلاش کنید.
سیستم ارزیابی تا انتهای آذرماه به خاطر باز طراحی در دسترس نخواهد بود

هرساله شرکت‌های معتبری از سراسر ایران اقدام به جذب نیرو در حوزه تکنولوژی می‌کنند و بسیاری از این مجموعه‌ها از سون‌لرن درخواست معرفی نیروی متخصص دارند. در این شرایط سون‌لرن خود را موظف می‌داند تا افراد برتر هر دوره را اعتبارسنجی کرده و به شرکت‌های متقاضی جهت استخدام معرفی کند. سایر دانشجویان نیز درصورت بهره‌مندی کامل از محتوای دوره و تکمیل مهارت‌های خود به‌راحتی قادر به اشتغال و فعالیت در زمینه موردنظر خود خواهند بود.

پشتیبانی طولانی‌مدت سون‌لرن از زمان ثبت نام شما، به مدت 1 سال همراهتان خواهد بود . علاوه بر این در صورت استخدام شما پس از دوره، با هماهنگی واحد پشتیبانی می توانید از 1 ماه همراهی پس از استخدام هم استفاده نمایید تا با خیال راحت و دلگرمی بر جایگاه شغلی که شایسته شماست تکیه بزنید. طبیعتا دانشجویانی که طبق زمان‌بندی دوره، یادگیری را پیش ببرند از مدت زمان پشتیبانی بیشترین بهره را خواهند برد. این پشتیبانی شامل پاسخ به مشکلات فنی، آموزشی و موارد مربوط به اشتغال شما است.

محتوای دوره‌ها همواره در اختیار شماست و لازم نیست نگران منقضی شدن آن و یا از بین رفتن پروفایل کاربری خود باشید چرا که بدون محدودیت زمانی و مکانی به آن دسترسی دارید. درضمن هر زمان که برخی مباحث آموزشی تغییر کرده و نیازمند به‌روزرسانی باشند، محتوای به‌روزشده سرفصل‌هایی که خریداری کرده‌اید در پنل کاربری شما در سایت 7learn.com قرار خواهد گرفت.

دانشجویان سابق متخصص سون لرن کجا استخدام شدند؟

کار کردن در شرکت‌های بزرگ و پویا مزایای زیادی در اختیار شما قرار می‌دهد که رشد فردی، بروز خلاقیت، ارتباطات مناسب و درآمد خوب تنها بخشی از این مزایا هستند. برای اینکه به جمع حرفه‌ای‌ها راه پیدا کنید و در کار خود بی‌بدیل باشید، باید همواره به‌روز بوده و در جایگاه خود حرفی برای گفتن داشته باشید. دوره‌‌های متخصص سن‌لرن، دانش موردنیاز و مهارت‌های کاربردی را در اختیارتان قرار می‌دهند تا با پشتکار و انگیزه فراوان بتوانید مانند بسیاری از دانشجویان سون لرن در کسب‌وکار و یا شغل خود موفق باشید.

در این دوره دانش فنی موردنیاز شما تدریس می‌شود، کافی‌ست نهایت استفاده را از آن داشته باشید تا مانند بسیاری از دانشجوهای موفق سون‌لرن، از فرصت های شغلی چنین شرکت‌های مطرحی بهره‌مند شوید.

و ده ها
شرکت دیگر

سرفصل های دوره

مقدمات و مفاهیم پایه

  • آشنایی با علم داده و کاربردهای آن در صنعت/تجارت/آموزش (قسمت اول) ۴۶ دقیقه
  • آشنایی با علم داده و کاربردهای آن در صنعت/تجارت/آموزش (قسمت دوم) ۳۸ دقیقه
  • چند مطالعه‌ی موردی در حوزه‌ی کاربرد داده کاوی در صنعت و استارتاپ‌ها ۴۴ دقیقه
  • بررسی زبان‌های برنامه نویسی حوزه‌ی داده کاوی و یادگیری ماشین (پایتون، R، جاوا، Scala، Go و...) ۴۱ دقیقه
  • تکنولوژی مجازی‌سازی و داکر و کاربر آن در حوزه‌ی علوم داده ۲۹ دقیقه
  • آشنایی با متدولوژی CRISP در پیاده‌سازی پروژه‌های داده کاوی ۳۵ دقیقه

  • آشنایی با ورژن‌های مختلف زبان پایتون و نسخه‌ی آناکوندا در لینوکس ۴۶ دقیقه
  • آموزش نصب و کار با پایتون و آناکوندا در ویندوز ۲۴ دقیقه
  • آشنایی با ژوپیتر نوتبوک و برنامه نویسی پایتون با این ابزار ۳۴ دقیقه
  • آشنایی با Visual Studio Code و Pycharm ۲۸ دقیقه
  • پکیج‌ها و ماژول‌ها در پایتون ۱۷ دقیقه
  • کار با محیط‌های مجازی و Virtual Environment در پایتون ۲۱ دقیقه
  • آشنایی با زبان R و نرم افزار R Studio ۲۹ دقیقه

  • مبانی ماتریس و فضای دکارتی ۳۵ دقیقه
  • مثالِ تبدیل تصویر به ماتریس جبر خطی ۲۸ دقیقه
  • تبدیل ویژگی‌های غیر عددی به عددی با استفاده از OHE ۱۸ دقیقه
  • تبدیل متن به ماتریس جبر خطی ۳۰ دقیقه
  • آموزش مقدمات کتابخانه‌ی Numpy برای کار با ماتریس‌های جبر خطی ۴۲ دقیقه
  • آموزش مقدمات کتابخانه‌ی Numpy برای کار با ماتریس‌های جبر خطی - ادامه ۳۹ دقیقه
  • مباحث تکمیلی کتابخانه‌ی Numpy ۴۸ دقیقه
  • مقایسه‌ی سرعت و بهینگی کتابخانه‌ی Numpy با لیست‌های پایتون ۱۸ دقیقه
  • مقدمات کتابخانه‌ی Pandas ۴۱ دقیقه
  • مقدمات کتابخانه‌ی Pandas (ادامه) ۳۲ دقیقه
  • مباحث تکمیلی کتابخانه‌ی Pandas ۲۹ دقیقه
  • مباحث تکمیلی کتابخانه‌ی Pandas (ادامه) ۱۷ دقیقه

  • معرفی نمودار هیستوگرام بر روی داده‌ها ۳۲ دقیقه
  • نمودارهای خطی و پراکندگی ۲۵ دقیقه
  • نمودار KDE مبتنی بر غلظت و نمودار جعبه‌ای یا همان Box-plot ۵۲ دقیقه
  • داده‌های سری زمانی (Time Series) و نمایش آن‌ها ۲۸ دقیقه
  • آشنایی و رسم نمودار با bokeh ۳۵ دقیقه
  • کار با کتابخانه‌ی bokeh جهت مصورسازی داده‌ها ۲۹ دقیقه
  • کار با کتابخانه‌ی bokeh جهت مصورسازی داده‌ها (ادامه) ۳۶ دقیقه
  • کار با کتابخانه‌ی bokeh جهت مصورسازی داده‌ها (ادامه) ۱۷ دقیقه
  • آموزش طراحی داده‌ها به صورت تعاملی با bokeh به عنوان سرور ۴۲ دقیقه
  • آموزش طراحی داشبورد مدیریتی با bokeh (پروژه عملی) ۵۹ دقیقه
  • آموزش طراحی داشبورد مدیریتی با bokeh (پروژه عملی) - ادامه ۳۶ دقیقه
  • آموزش طراحی داشبورد مدیریتی با bokeh (پروژه عملی) - ادامه ۳۸ دقیقه
  • آموزش طراحی داشبورد مدیریتی با bokeh (پروژه عملی) - ادامه ۵۵ دقیقه
  • دیپلوی یک پروژه علم داده با bokeh server روی یک سرور آنلاین ۵۲ دقیقه

آمار و آماده سازی داده ها

  • مقدمات آمار و احتمال و توزیع نرمال ۴۶ دقیقه
  • توزیع‌های احتمالی (نرمال، یکنواخت، برنولی و باینومیال) ۳۲ دقیقه
  • توزیع‌های احتمالی (چند جمله‌ای، پواسون و نمایی) ۶۱ دقیقه
  • توابع PDF، CDF و PMF و کاربرد آن‌ها در توزیع‌های احتمالی ۴۵ دقیقه
  • تست Kullback-Leibler برای توزیع‌های آماری ۶۶ دقیقه
  • معیار جنسون شنون (Jenson Shanon) برای محاسبه‌ی دو توزیع آماری ۴۲ دقیقه
  • معیار Kolmogorov-Smirnov برای مقایسه‌ی توزیع‌های احتمالی ۴۹ دقیقه
  • کتابخانه‌ی PyIDD و تخمین توزیع‌های آماری ۱۴ دقیقه
  • آشنایی با P Value کاربرد آن در تست‌های آماری ۶۱ دقیقه
  • تست‌های فرضیه‌ی آماری A-B - مثال کاربردی تغییر صفحه‌ی خرید برای مشتریان (قسمت اول) ۵۵ دقیقه
  • جلسه تست‌های فرضیه‌ی آماری A-B - مثال کاربردی تغییر صفحه‌ی خرید برای مشتریان (قسمت دوم) ۳۱ دقیقه
  • درجه‌ی آزادی (Degree of Freedom)، توزیع F و توزیع Chi2 ۲۵ دقیقه
  • آزمون Z و آزمون T - مثال عملی آزمون داده‌های بیماری کرونا (قسمت اول) ۴۲ دقیقه
  • آزمون Z و آزمون T - مثال عملی آزمون داده‌های بیماری کرونا (قسمت دوم) ۳۳ دقیقه
  • تحلیل واریانس (ANOVA) برای آزمون‌های آماری (قسمت اول) ۲۱ دقیقه
  • تحلیل واریانس (ANOVA) برای آزمون‌های آماری (قسمت دوم) ۳۷ دقیقه

  • هوش تجاری (BI) و تصمیم‌گیری داده محور ۲۳ دقیقه
  • فرآیند ETL و ELT در جمع‌آوری داده‌ها ۱۷ دقیقه
  • آشنایی با آپاچی AirFlow برای انتقال داده‌های حجیم و زمان‌بندی شده ۳۱ دقیقه
  • کلان داده (Big Data) و انواع مختلف داده‌ها ۱۹ دقیقه
  • روش نگاشت-کاهش (Map-Reduce) و سیستم فایل توزیع شده (DFS) ۴۳ دقیقه
  • آشنایی با هدوپ (Hadoop) و اکوسیستم آن ۲۵ دقیقه
  • پایگاه داده‌های توزیع شده و تئوری CAP ۴۰ دقیقه
  • آشنایی با پایگاه داده‌های SQL و NoSQL ۳۶ دقیقه
  • انبار داده، OLAP و مکعب داده (بخش اول) ۴۳ دقیقه
  • انبار داده، OLAP و مکعب داده (بخش دوم) ۲۸ دقیقه
  • بازار داده (Data Mart) و دریاچه‌ی داده (Data Lake) ۱۰ دقیقه
  • معرفی ابزار python cubes جهت ساخت مدل‌های OLAP و مکعب‌های داده ۵۶ دقیقه

  • معرفی کتابخانه‌ی scikit-learn و کتابخانه‌های مرتبط با داده کاوی ۱۹ دقیقه
  • روش‌های مقدماتی پیش پردازش داده‌ها (Data Preprocessing) - قسمت اول ۴۹ دقیقه
  • روش‌های مقدماتی پیش پردازش داده‌ها (Data Preprocessing) - قسمت دوم ۳۶ دقیقه
  • مباحث تکمیلی در پیش پردازش داده‌ها - قسمت اول (نرمال‌سازی و استانداردسازی داده‌ها، روش K نزدیک‌ترین همسایه برای داده‌های گم شده) ۴۴ دقیقه
  • مباحث تکمیلی در پیش پردازش داده‌ها - قسمت دوم (نرمال‌سازی L1 و L2 و باینرایزر) ۲۸ دقیقه
  • همبستگی (Correlation) و روش‌های Pearson، Spearman و Kendalls Tau در تحلیل داده‌های همبسته ۴۵ دقیقه
  • همبستگی داده‌ها در پایتون (مثال عملی مجموعه داده‌ی فوتبال آمریکایی) ۵۶ دقیقه
  • مباحث تکمیلی EDA و آماده سازی داده‌ها (مثال مجموعه داده‌ی بازی‌های تخته‌ای) ۴۶ دقیقه
  • مثال مجموعه داده‌ی اتومبیل و EDA بر روی داده‌ها ۳۲ دقیقه

مدل سازی پایه

  • طبقه بندی مجموعه داده‌ی MNIST بخش مقدماتی ۴۸ دقیقه
  • معرفی الگوریتم SVM و استفاده از آن در داده کاوی ۴۳ دقیقه
  • معیارهای Accuarcy، Precision، Recall و F1 برای ارزیابی دقت، صحت و پوشش یک الگوریتم طبقه بندی ۴۵ دقیقه
  • الگوریتم KNN (نزدیک‌ترین همسایه) در طبقه بندی ۳۵ دقیقه
  • الگوریتم درخت تصمیم و مجموعه‌ی داده‌ی گل‌های زنبق (قسمت اول) ۲۹ دقیقه
  • الگوریتم درخت تصمیم و مجموعه‌ی داده‌ی گل‌های زنبق (قسمت دوم) ۳۳ دقیقه
  • ناخالصی جینی (Gini Impurity) و بهره اطلاعاتی (Information Gain) ۳۲ دقیقه
  • بررسی مفهوم bias و variance در طبقه بندی ۴۳ دقیقه
  • الگوریتم جنگل تصادفی (Random Forest) ۲۷ دقیقه
  • الگوریتم Adaboost ۳۳ دقیقه
  • نگاهی دقیق‌تر به پارامترهای الگوریتم SVM (قسمت اول) ۳۱ دقیقه
  • نگاهی دقیق‌تر به پارامترهای الگوریتم SVM (قسمت دوم) ۲۴ دقیقه
  • نگاهی دقیق‌تر به پارامترهای الگوریتم RandomForest ۳۲ دقیقه
  • نگاهی دقیق‌تر به پارامترهای الگوریتم KNN ۳۶ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت اول ۲۸ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت دوم ۱۳ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت سوم ۳۰ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت چهارم ۳۲ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت پنجم ۲۲ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت ششم ۳۳ دقیقه
  • شناسایی بیماران قلبی با استفاده از الگوریتم‌های طبقه بندی ۳۶ دقیقه
  • پیدا کردن بهترین پارامترها در الگوریتم‌ها با استفاده از جستجوی مشبک (Grid Search) ۴۱ دقیقه
  • آشنایی با مسائل رگرسیون و حل مسئله‌ی پیش‌بینی دما (قسمت اول) ۴۰ دقیقه
  • آشنایی با مسائل رگرسیون و حل مسئله‌ی پیش‌بینی دما (قسمت دوم) ۲۵ دقیقه
  • الگوریتم Gradient Boosting و XGBoost برای طبقه‌بندی و رگرسیون ۳۴ دقیقه
  • الگوریتم XGBoost و حل مسئله‌ی تخمین قیمت منزل ۴۱ دقیقه
  • الگوریتم CatBoost و حل مسئله‌ی تخمین خسارت حادثه شرکت بیمه (قسمت اول) ۳۴ دقیقه
  • الگوریتم CatBoost و حل مسئله‌ی تخمین خسارت حادثه شرکت بیمه (قسمت دوم) ۴۵ دقیقه
  • الگوریتم CatBoost و حل مسئله‌ی تخمین خسارت حادثه شرکت بیمه (قسمت سوم - یادگیری ماشین با GPU و یادگیری با وقفه) ۲۴ دقیقه
  • جمع بندی نیمه‌ی اول دوره تا اینجا + مباحث تکمیلی ارائه شده در آینده ۳۱ دقیقه

  • کاهش ابعاد - قسمت اول (کاهش ابعاد به وسیله‌ی اطلاعات آماری) ۳۷ دقیقه
  • کاهش ابعاد - قسمت دوم (کاهش ابعاد به وسیله‌ی اطلاعات آماری) ۲۵ دقیقه
  • الگوریتم PCA و KernelPCA در کاهش ابعاد (قسمت اول) ۳۳ دقیقه
  • الگوریتم PCA و KernelPCA در کاهش ابعاد (قسمت دوم) ۳۲ دقیقه
  • الگوریتم Factor Analysis در کاهش ابعاد ۱۶ دقیقه
  • الگوریتم ICA و ISOMAP برای کاهش ابعاد ۲۲ دقیقه
  • الگوریتم TSNE و UMAP برای کاهش ابعاد ۲۰ دقیقه
  • ترکیب الگوریتم‌های کاهش ابعاد برای حل مسائل طبقه بندی ۴۱ دقیقه
  • کار کردن با داده‌های غیر متوازن (Imbalance) - قسمت اول ۲۸ دقیقه
  • کار کردن با داده‌های غیر متوازن (Imbalance) - قسمت دوم ۳۴ دقیقه
  • کار کردن با داده‌های غیر متوازن (Imbalance) - قسمت سوم ۱۹ دقیقه
  • طبقه بندی تصاویر رنگی با استفاده از تکنیک‌های پردازش تصویر - قسمت اول ۳۸ دقیقه
  • طبقه بندی تصاویر رنگی با استفاده از تکنیک‌های پردازش تصویر - قسمت دوم ۲۹ دقیقه
  • طبقه بندی تصاویر رنگی با استفاده از تکنیک‌های پردازش تصویر - قسمت سوم ۲۴ دقیقه
  • طبقه بندی تصاویر رنگی با استفاده از تکنیک‌های پردازش تصویر - قسمت چهارم ۳۰ دقیقه
  • تحلیل و پیش‌بینی سری زمانی با استفاده از SARIMAX - قسمت اول ۵۱ دقیقه
  • تحلیل و پیش‌بینی سری زمانی با استفاده از SARIMAX - قسمت دوم ۳۱ دقیقه
  • معرفی کتابخانه‌ی Prophet برای پیش‌بینی سری‌های زمانی ۲۲ دقیقه
  • جمع بندی فصل + مباحث تکمیلی ارائه شده در آینده ۱۰ دقیقه

  • آشنایی با خوشه بندی (Clustering) و کاربردهای آن ۲۷ دقیقه
  • معرفی الگوریتم KMeans و DBSCAN برای خوشه بندی داده‌ها ۱۹ دقیقه
  • خوشه‌بندی بر اساس مدل RFM بر روی مشتریان فروشگاه اینترنتی - قسمت اول ۳۳ دقیقه
  • خوشه‌بندی بر اساس مدل RFM بر روی مشتریان فروشگاه اینترنتی - قسمت دوم ۳۰ دقیقه
  • خوشه‌بندی، معیار WCSS و تکنیک Elbow ۱۸ دقیقه
  • بررسی روش Silhouette و الگوریتم DBSCAN ۲۲ دقیقه
  • تقسیم‌بندی تصاویر (Image Segmentation) با استفاده از الگوریتم‌های خوشه‌بندی - قسمت اول ۳۰ دقیقه
  • تقسیم‌بندی تصاویر (Image Segmentation) با استفاده از الگوریتم‌های خوشه‌بندی - قسمت دوم ۳۰ دقیقه
  • تقسیم‌بندی تصاویر (Image Segmentation) با استفاده از الگوریتم‌های خوشه‌بندی (Spectral Clustering) - قسمت سوم ۲۷ دقیقه
  • تقسیم‌بندی تصاویر (Image Segmentation) با استفاده از الگوریتم‌های خوشه‌بندی (MeanShift) - قسمت چهارم ۴۰ دقیقه
  • خوشه بندی بر روی متون (Text Clustering) - قسمت اول ۳۴ دقیقه
  • خوشه بندی بر روی متون (Text Clustering) - قسمت دوم ۳۱ دقیقه
  • تشخیص داده‌های پرت (Outlier Detection) - قسمت اول - الگوریتم LOF ۳۳ دقیقه
  • تشخیص داده‌های پرت (Outlier Detection) - قسمت دوم - الگوریتم LOF ۱۵ دقیقه
  • تشخیص داده‌های پرت (Outlier Detection) - قسمت سوم - الگوریتم‌های ABOD و IsolationForest ۲۹ دقیقه
  • تشخیص داده‌های پرت (Outlier Detection) - قسمت چهارم ۱۵ دقیقه
  • جمع بندی فصل + مباحث تکمیلی ارائه شده در آینده ۱۲ دقیقه

مدل سازی پایه پیشرفته

  • آشنایی با شبکه‌های عصبی و پرسپترون ۳۵ دقیقه
  • پیاده‌سازی یک شبکه‌ی ساده عصبی با پایتون ۳۱ دقیقه
  • آشنایی با چهارچوب تنسرفلو (tensorflow) و کراس (keras) ۲۴ دقیقه
  • پیاده‌سازی طبقه‌بندی تصاویر با تنسرفلو (tensorflow) و کراس (keras) - قسمت اول ۴۱ دقیقه
  • پیاده‌سازی طبقه‌بندی تصاویر با تنسرفلو (tensorflow) و کراس (keras) - قسمت دوم ۳۱ دقیقه
  • پیاده‌سازی شبکه‌های عصبی برای حل مسئله‌ی تشخیص بیماری قلبی عروقی با تنسرفلو و کراس ۳۳ دقیقه
  • شبکه‌های عصبی کانولوشن (CNN) و مدل عمیق یادگیری ۳۸ دقیقه
  • پیاده‌سازی یادگیری عمیق کانولوشنی (CNN) برای طبقه بندی تصاویر - قسمت اول ۳۵ دقیقه
  • پیاده‌سازی یادگیری عمیق کانولوشنی (CNN) برای طبقه بندی تصاویر - قسمت دوم ۲۱ دقیقه
  • پیاده‌سازی شبکه‌های عصبی کانولوشنی (CNN) و استفاده از تکنیک dropout ۲۴ دقیقه
  • آشنایی با انواع توابع فعال‌سازی (activation functions) ۲۹ دقیقه
  • کار با داده‌های حجیم در یادگیری عمیق - قسمت اول ۳۳ دقیقه
  • کار با داده‌های حجیم در یادگیری عمیق - قسمت دوم (افزایش داده‌ها و ساخت داده‌ی مصنوعی) ۳۵ دقیقه
  • مسئله‌ی شناخت بیماری از روی تصاویر xray قفسه سینه و کار با داده‌های نامتوازن در یادگیری عمیق - قسمت اول ۳۵ دقیقه
  • مسئله‌ی شناخت بیماری از روی تصاویر xray قفسه سینه و کار با داده‌های نامتوازن در یادگیری عمیق - قسمت دوم ۲۷ دقیقه
  • آشنایی با مدل‌های معروف یادگیری عمیق کانولوشنی در حل مسائل ۳۶ دقیقه
  • پیاده‌سازی مدل ResNet و مدل پیش یادگیری شده در یادگیری عمیق با Tensorflow و Keras ۲۸ دقیقه
  • پیاده‌سازی Resnet برای تشخیص تصاویر از وبکم لپ‌تاپ ۲۰ دقیقه
  • کار بر روی داده‌های متنی (تحلیل احساس) با شبکه‌های عصبی عمیق کانولوشنی -قسمت اول ۲۹ دقیقه
  • کار بر روی داده‌های متنی (تحلیل احساس) با شبکه‌های عصبی عمیق کانولوشنی - قسمت دوم (تعریف کانولوشن یک بُعدی و word embedding) ۳۳ دقیقه
  • کار بر روی داده‌های متنی (تحلیل احساس) با شبکه‌های عصبی عمیق کانولوشنی - قسمت سوم (تعریف کانولوشن یک بُعدی و word embedding) ۳۳ دقیقه
  • شبکه‌های عصبی عمیق چند کاناله (حل مسئله‌ی تحلیل احساس متن) ۲۲ دقیقه
  • شبکه‌های عصبی عمیق چندکاناله با ورودی چندگانه - قسمت اول ۳۷ دقیقه
  • شبکه‌های عصبی عمیق چندکاناله با ورودی چندگانه - قسمت دوم ۳۹ دقیقه
  • شبکه‌های عصبی عمیق چندکاناله با ورودی چندگانه - قسمت سوم ۲۸ دقیقه
  • جمع بندی فصل + مباحث تکمیلی ارائه شده در آینده ۱۰ دقیقه

  • شبکه‌های عصبی بازگشتی (RNN) ۲۱ دقیقه
  • پیش‌بینی داده‌های بورس با استفاده از شبکه‌های عصبی ساده بازگشتی (simple RNN) ۲۲ دقیقه
  • پیاده‌سازی شبکه‌های عصبی بازگشتی (RNN) در تنسورفلو و کراس ۳۴ دقیقه
  • شبکه‌های عصبی LSTM و GRU و معماری‌های مختلف شبکه‌های عصبی بازگشتی ۲۳ دقیقه
  • پیش‌بینی خرید/فروش رمزارز با شبکه‌های عصبی بازگشتی - قسمت اول ۳۷ دقیقه
  • پیش‌بینی خرید/فروش رمزارز با شبکه‌های عصبی بازگشتی - قسمت دوم ۳۱ دقیقه
  • پیش‌بینی خرید/فروش رمزارز با شبکه‌های عصبی بازگشتی - قسمت سوم ۲۱ دقیقه
  • پیش‌بینی خرید/فروش رمزارز با شبکه‌های عصبی بازگشتی - قسمت چهارم (شبکه‌های عصبی بازگشتی multi state) ۲۱ دقیقه
  • یادگیری انتقالی (Transfer Learning) - قسمت اول ۳۸ دقیقه
  • یادگیری انتقالی (Transfer Learning) - قسمت دوم ۳۳ دقیقه
  • یادگیری انتقالی (Transfer learning) - قسمت سوم ۱۷ دقیقه
  • یادگیری انتقالی (Transfer Learning) - قسمت چهارم ۱۹ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت اول (web scraping) ۲۲ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت دوم ۳۲ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت سوم ۳۳ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت چهارم ۲۲ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت پنجم ۲۶ دقیقه
  • سیستم ترجمه‌ی ماشینی ساده با الگوریتم یادگیری عمیق بازگشتی - قسمت اول (مدل sequence2sequenc) ۳۱ دقیقه
  • سیستم ترجمه‌ی ماشینی ساده با الگوریتم یادگیری عمیق بازگشتی - قسمت دوم ۳۴ دقیقه
  • سیستم ترجمه‌ی ماشینی ساده با الگوریتم یادگیری عمیق بازگشتی - قسمت سوم ۱۳ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت اول ۳۴ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت دوم ۲۵ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت سوم ۳۱ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت چهارم ۲۷ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت پنجم ۲۵ دقیقه

  • مقدمه‌ای در مورد یادگیری تقویتی (Reinforcement Learning) ۲۰ دقیقه
  • حل مسئله‌ی تاکسی خودران با یادگیری تقویتی - قسمت اول ۲۹ دقیقه
  • حل مسئله‌ی تاکسی خودران با یادگیری تقویتی - قسمت دوم ۲۲ دقیقه
  • حل مسئله‌ی تاکسی خودران با یادگیری تقویتی - قسمت سوم ۳۱ دقیقه
  • حل مسئله‌ی تاکسی خودران با یادگیری تقویتی - قسمت چهارم ۱۸ دقیقه
  • یادگیری تقویتی عمیق (Deep Reinforcement Learning) و شبکه‌های DDQN - قسمت اول ۲۷ دقیقه
  • یادگیری تقویتی عمیق (Deep Reinforcement Learning) و شبکه‌های DDQN - قسمت دوم ۳۱ دقیقه
  • یادگیری تقویتی عمیق (Deep Reinforcement Learning) و شبکه‌های DDQN - قسمت سوم ۲۸ دقیقه
  • یادگیری تقویتی عمیق (Deep Reinforcement Learning) و شبکه‌های DDQN - قسمت چهارم ۱۳ دقیقه

پروژه ها و پیاده سازی ها

  • پیش‌بینی رمز ارزها با استفاده از شبکه‌های عصبی LSTM و ساکن‌سازی - قسمت اول ۲۹ دقیقه
  • پیش‌بینی رمز ارزها با استفاده از شبکه‌های عصبی LSTM و ساکن‌سازی - قسمت دوم ۳۰ دقیقه
  • پیش‌بینی رمز ارزها با استفاده از شبکه‌های عصبی LSTM و ساکن‌سازی - قسمت سوم ۲۶ دقیقه
  • پیش‌بینی رمز ارزها با استفاده از شبکه‌های عصبی LSTM بدون ساکن‌سازی - قسمت چهارم ۲۶ دقیقه
  • وبینار - بررسی و معرفی شرکت‌های داخل ایران جهت استخدام متخصص علم داده و یادگیری ماشین ۷۶ دقیقه

از چه کسی یاد میگیری؟

تصویر مسعود کاویانی
مسعود کاویانی متخصص علوم داده و یادگیری ماشین
  • مدیر فنی زیرساخت ذخیره‌سازی ابری و مدیر فنی زیرساخت استریمینگ داده شرکت پارس‌پک
  • مدرس و مشاور یادگیری ماشین و داده‌کاوی در شرکت‌ها و سازمان‌ها (جهاد دانشگاهی صنعتی شریف، نیروی انتظامی تهران بزرگ، داروسازی دکتر عبیدی، شهرک صنعتی اصفهان، بیمه سامان)
  • مدیر واحد داده‌کاوی سامانه‌ی خبر فارسی 
  • بنیان‌گذار پروژه‌ی آموزشی چیستیو 
  • تدریس بیش از ۶۰۰ دانشجو و بیش از ۲۰۰۰۰ نفر/ساعت تدریس در حوزه علم داده
  • برنامه‌نویس ارشد شرکت‌های ثانیه، پدیده و آرمین
  • دارنده‌ی مدال کارآفرینی از کمپانی گوگل و کاربر برتر ماه در بخش داده‌کاوی سایت StackOverFlow

همین الان ثبت نام کن

تخفیف ۱.۱۸۵ میلیون تومانی پرداخت کامل
۱.۱۸۵ میلیون تومان تخفیف پرداخت نقدی
۷.۹ میلیون تومان
۶.۷۱۵ میلیون تومان
پرداخت اقساطی در ۴ قسط  ( به صورت ماهانه)
پرداخت ۴ قسط ۱.۹۷۵ میلیون تومانی ، به صورت ماهانه (مجموعا ۷.۹ میلیون تومان)
مبلغ قسط اول
۱.۹۷۵ میلیون تومان

درخواست مشاوره

برای مشاوره تخصصی روی ما حساب کنید!

۰۲۱-۲۸۴۲۷۷۵۰