متخصص علم داده
(data science)

با تدریس   مسعود کاویانی

بیش از ۹۰ ساعت
۲۰۷ جلسه
۱ سال پشتیبانی
گارانتی بازگشت ۱۰۰ درصدی وجه

آموزش علم داده

داده کاوی زمانی جذاب است که شما یک تحلیل‌گر داده حرفه‌ای باشید و نه فقط در آرزوی انجام آن. اگر می‌خواهید‌ از الان تا آینده خیال‌تان را بابت داشتن یک شغل خوب و خوش‌درآمد در هرجای جهان راحت کنید و با خیال آسوده پیر شوید، یادگیری داده کاوی و ماشین لرنینگ همان مهارتی‌ست که جادوگرها در گوی آینده‌نمای خود می‌بینند. آموزش پایتون برای داده‌کاوی چیزی‌ست که بلندپروازها و افراد جسور نمی‌توانند در برابر یادگیری آن مقاومت کنند. حالا که در انتخاب این حوزه جسارت لازم را دارید، بهتر است ادامه راه را هم بررسی کنیم و ببینیم چه مسیر مطمئنی برای یادگیری علم داده با پایتون در پیش‌رو داریم.

دوره‌ متخصص پایتون برای داده کاوی با هدف تدریس تمامی مباحث و سرفصل‌های لازم برای تسلط و آمادگی دانشجویان جهت ورود به بازار کار ارائه شده است. در این دوره‌‌ کامل‌ترین سرفصل‌های پایتون برای داده کاوی به صورت غیرحضوری تدریس می‌شود و دانشجویان پس از مشاهده جلسات امکان پرسش و پاسخ، رفع اشکال، انجام تمرین، انجام آزمون‌های مقطعی و رتبه‌بندی خواهند داشت. پس از پایان دوره کسانی که در آزمون‌های جامع و ارزیابی فنی بالاترین نمرات را کسب کنند، جهت استخدام به شرکت‌هایی معرفی می‌شوند که قصد دارند از طریق مجموعه سون‌لرن برنامه‌نویس موردنظر خود را جذب کنند.

چرا باید یک محقق علم داده شوم ؟

  • بسیاری از شرکت‌های بزرگ داخلی و خارجی با حجم انبوهی از داده‌های تولید شده توسط کاربران مواجه هستند و این باعث افزایش تقاضا برای جذب نیروی متخصص در این حوزه می‌شود.
  • اگر قصد مهاجرت داشته باشید داشتن مهارت و رزومه در این زمینه می‌تواند فرایند کسب درآمد در کشور مقصد را ساده کند.
  • به‌دلیل کمبود نیروی متخصص علم داده در شرکت‌های داخلی، در صورت داشتن مهارت کافی امکان جذب نیرو همراه با درآمد بالا توسط شرکت‌ها فراهم است.
  • علم داده نیز مانند ماشین لرنینگ یکی از شاخه‌های مهم فناوری است و بر مبنای پایتون فعالیت می‌کند. بنابراین یادگیری آن می‌تواند زمینه ساز ورود شما به سایر حوزه‌های مهم باشد.


این دوره
برای چه کسانی
مناسـب اسـت؟

  • کسانی که به داشتن مشاغل مهم و پردرآمد حوزه تکنولوژی در ایران علاقه دارند.
  • کسانی که قصد مهاجرت دارند و به‌دنبال تضمین شغلی هستند.
  • کسانی که به کار با داده‌ها و تحلیل علاقه دارند.
  • کسانی که به‌دنبال امتیاز ویژه برای پذیرش تحصیلی در خارج از کشور هستند.

این دوره
برای چه کسانی
مناسـب نیست؟

  • کسانی که وقت کافی برای انجام تمرین ندارند
  • کسانی که به ارتقای درآمد و سطح شغلی خود فکر نمی‌کنند
  • کسانی که مشاغل روتین و درآمد معمولی را به مشاغل پرچالش و به‌روز ترجیح می‌دهند

ویژگی های دوره

ما به کیفیت و اثربخشی محصول خود اعتقاد داریم و به همین منظور گارانتی بازگشت وجه یک ماهه به شما ارائه می دهیم تا خریدی بدون ریسک و بدون نگرانی داشته باشید.
هزینه‌ای که بابت دوره پرداخت می‌کنید تا 1 ماه در اختیار خودِ شماست. اگر پس از خرید دوره به‌صورت جامع، به هر دلیلی از شرکت در آن منصرف شدید تا ١ ماه پس از خريد امكان انصراف و بازگشت كامل وجه برای شما درنظر گرفته شده است. برای انصراف از دوره لازم است در بازه زمانی تعیین شده درخواست خود را با پشتیبانی مطرح کرده و حداکثر ۲۵% از دوره را مشاهده کرده باشید. پس از انصراف همواره منتظر نظرات و پیشنهادات شما برای بهبود کیفیت دوره و نحوه ارائه آن‌ها هستیم و امیدواریم در حوزه موردنظر خود به موفقیت و فرصت‌های بزرگی دست پیدا کنید.

آموزش مهارت‌محور به این معنی‌ست که در طول دوره و باتوجه به میزان پیچیدگی هر مبحث آموزشی تمرین‌، آزمون و پروژه‌های مختلفی برای شما در نظر گرفته شده است تا یادگیری خود را تکمیل کنید. همچنین برگزاری وبینارهای متعدد و عضویت در گروه تلگرامی دوره امکان ارتباط با اساتید، منتورها و سایر دانشجویان را برای شما فراهم می‌کند. وضعیت آموزشی هر دانشجو برای منتورهای دوره قابل رصد و ارزیابی‌ست زیرا منتورها از بین دانشجویان برتر انتخاب شده‌اند و به‌خوبی با فرایند آموزشی و چالش‌های دوره آشنایی دارند. پایبندی به این متد آموزشی علاوه‌بر ارتقا سطح مهارتی که دارید، شما را با چالش هاى فنى و نحوه مدیریت آن‌ها آشنا مى كند و اين همان چيزى‌ست كه برای حضور در بازار كار به آن نياز داريد.

هیچ سوالی بی‌جواب نخواهد ماند. پس از ورود به دوره امكان پرسش و پاسخ و رفع اشكال براى شما فراهم است. شما می‌توانید در هر ساعتی از شبانه روز سوالات خود را مطرح کنید و اساتید یا منتورهای دوره در سريع‌ترين زمان ممكن به شما پاسخ خواهند داد. حضور در این فضای تعاملی و همراهی با دیگران می‌تواند در ارتقای مهارت‌های نرم دانشجویان و ایجاد یک رقابت سالم نقش موثری داشته باشد.

فعالیت‌های آموزشی تعریف شده در دوره مانند مشاهده جلسات، تمرین، آزمون، پروژه، پاسخ دادن به سوال دیگران و غیره با شاخصی به‌نام xp ارزیابی می‌شوند که منجربه رتبه‌بندی دانشجویان خواهد شد. به این معنی که دانشجویان با انجام هر کدام از موارد بالا و کسب امتیاز (xp) مربوط به آن فرایند، جایگاه خود را در رتبه‌بندی دوره ارتقا می‌دهند. طبیعتا دانشجویانی که xp بیشتری دارند نسبت به دیگران از رتبه و مهارت بهتری برخوردار هستند و آمادگی بیشتری برای ارزیابی‌های پایان دوره و کسب موقعیت‌های شغلی دارند. هر فعالیتی xp مشخصی دارد تا علاوه‌بر تشویق دانشجو برای پایبندی به آموزش، یک معیار مشخص و عادلانه برای انتخاب دانشجویان برتر ارائه دهد. بدین ترتیب شما می‌توانید میزان مشارکت و پیشرفت خود را با دیگران مقایسه و در فرصت باقی‌مانده از دوره، برای بهبود وضعیت آموزشی خود تلاش کنید.
سیستم ارزیابی تا انتهای آذرماه به خاطر باز طراحی در دسترس نخواهد بود

هرساله شرکت‌های معتبری از سراسر ایران اقدام به جذب نیرو در حوزه تکنولوژی می‌کنند و بسیاری از این مجموعه‌ها از سون‌لرن درخواست معرفی نیروی متخصص دارند. در این شرایط سون‌لرن خود را موظف می‌داند تا افراد برتر هر دوره را اعتبارسنجی کرده و به شرکت‌های متقاضی جهت استخدام معرفی کند. سایر دانشجویان نیز درصورت بهره‌مندی کامل از محتوای دوره و تکمیل مهارت‌های خود به‌راحتی قادر به اشتغال و فعالیت در زمینه موردنظر خود خواهند بود.

پشتیبانی طولانی‌مدت سون‌لرن از زمان ثبت نام شما، به مدت 1 سال همراهتان خواهد بود . علاوه بر این در صورت استخدام شما پس از دوره، با هماهنگی واحد پشتیبانی می توانید از 1 ماه همراهی پس از استخدام هم استفاده نمایید تا با خیال راحت و دلگرمی بر جایگاه شغلی که شایسته شماست تکیه بزنید. طبیعتا دانشجویانی که طبق زمان‌بندی دوره، یادگیری را پیش ببرند از مدت زمان پشتیبانی بیشترین بهره را خواهند برد. این پشتیبانی شامل پاسخ به مشکلات فنی، آموزشی و موارد مربوط به اشتغال شما است.

محتوای دوره‌ها همواره در اختیار شماست و لازم نیست نگران منقضی شدن آن و یا از بین رفتن پروفایل کاربری خود باشید چرا که بدون محدودیت زمانی و مکانی به آن دسترسی دارید. درضمن هر زمان که برخی مباحث آموزشی تغییر کرده و نیازمند به‌روزرسانی باشند، محتوای به‌روزشده سرفصل‌هایی که خریداری کرده‌اید در پنل کاربری شما در سایت 7learn.com قرار خواهد گرفت.

دانشجویان سابق متخصص سون لرن کجا استخدام شدند؟

کار کردن در شرکت‌های بزرگ و پویا مزایای زیادی در اختیار شما قرار می‌دهد که رشد فردی، بروز خلاقیت، ارتباطات مناسب و درآمد خوب تنها بخشی از این مزایا هستند. برای اینکه به جمع حرفه‌ای‌ها راه پیدا کنید و در کار خود بی‌بدیل باشید، باید همواره به‌روز بوده و در جایگاه خود حرفی برای گفتن داشته باشید. دوره‌‌های متخصص سن‌لرن، دانش موردنیاز و مهارت‌های کاربردی را در اختیارتان قرار می‌دهند تا با پشتکار و انگیزه فراوان بتوانید مانند بسیاری از دانشجویان سون لرن در کسب‌وکار و یا شغل خود موفق باشید.

در این دوره دانش فنی موردنیاز شما تدریس می‌شود، کافی‌ست نهایت استفاده را از آن داشته باشید تا مانند بسیاری از دانشجوهای موفق سون‌لرن، از فرصت های شغلی چنین شرکت‌های مطرحی بهره‌مند شوید.

و ده ها
شرکت دیگر

سرفصل های دوره

مقدمات و مفاهیم پایه

فصل اول به معرفی بخش‌های مختلف علم داده و کاربرد آن‌ها در صنایع گوناگون می‌پردازد

  • آشنایی با علم داده و کاربردهای آن در صنعت/تجارت/آموزش (قسمت اول) رایگان ۴۶ دقیقه
  • آشنایی با علم داده و کاربردهای آن در صنعت/تجارت/آموزش (قسمت دوم) رایگان ۳۸ دقیقه
  • چند مطالعه‌ی موردی در حوزه‌ی کاربرد داده کاوی در صنعت و استارتاپ‌ها منتشر شده ۴۴ دقیقه
  • بررسی زبان‌های برنامه نویسی حوزه‌ی داده کاوی و یادگیری ماشین (پایتون، R، جاوا، Scala، Go و...) منتشر شده ۴۱ دقیقه
  • تکنولوژی مجازی‌سازی و داکر و کاربر آن در حوزه‌ی علوم داده رایگان ۲۹ دقیقه
  • آشنایی با متدولوژی CRISP در پیاده‌سازی پروژه‌های داده کاوی منتشر شده ۳۵ دقیقه

در این فصل نسخه‌های مختلف پایتون آماده و برای اجرای کدها، بر روی سیستم عامل لینوکس/ویندوز/مک به صورت عملی نصب می‌شوند

  • آشنایی با ورژن‌های مختلف زبان پایتون و نسخه‌ی آناکوندا در لینوکس منتشر شده ۴۶ دقیقه
  • آموزش نصب و کار با پایتون و آناکوندا در ویندوز رایگان ۲۴ دقیقه
  • آشنایی با ژوپیتر نوتبوک و برنامه نویسی پایتون با این ابزار منتشر شده ۳۴ دقیقه
  • آشنایی با Visual Studio Code و Pycharm منتشر شده ۲۸ دقیقه
  • پکیج‌ها و ماژول‌ها در پایتون منتشر شده ۱۷ دقیقه
  • کار با محیط‌های مجازی و Virtual Environment در پایتون منتشر شده ۲۱ دقیقه
  • آشنایی با زبان R و نرم افزار R Studio منتشر شده ۲۹ دقیقه

در این بخش با مفاهیم و کتابخانه‌های کاربردی پایتون در علم داده آشنا خواهید شد.

  • مبانی ماتریس و فضای دکارتی منتشر شده ۳۵ دقیقه
  • مثالِ تبدیل تصویر به ماتریس جبر خطی منتشر شده ۲۸ دقیقه
  • تبدیل ویژگی‌های غیر عددی به عددی با استفاده از OHE رایگان ۱۸ دقیقه
  • تبدیل متن به ماتریس جبر خطی منتشر شده ۳۰ دقیقه
  • آموزش مقدمات کتابخانه‌ی Numpy برای کار با ماتریس‌های جبر خطی منتشر شده ۴۲ دقیقه
  • آموزش مقدمات کتابخانه‌ی Numpy برای کار با ماتریس‌های جبر خطی - ادامه منتشر شده ۳۹ دقیقه
  • مباحث تکمیلی کتابخانه‌ی Numpy منتشر شده ۴۸ دقیقه
  • مقایسه‌ی سرعت و بهینگی کتابخانه‌ی Numpy با لیست‌های پایتون رایگان ۱۸ دقیقه
  • مقدمات کتابخانه‌ی Pandas منتشر شده ۴۱ دقیقه
  • مقدمات کتابخانه‌ی Pandas (ادامه) منتشر شده ۳۲ دقیقه
  • مباحث تکمیلی کتابخانه‌ی Pandas منتشر شده ۲۹ دقیقه
  • مباحث تکمیلی کتابخانه‌ی Pandas (ادامه) منتشر شده ۱۷ دقیقه

در این سرفصل با نمودارها و سایر کتابخانه‌های کاربردی آشنا خواهید شد.

  • معرفی نمودار هیستوگرام بر روی داده‌ها منتشر شده ۳۲ دقیقه
  • نمودارهای خطی و پراکندگی رایگان ۲۵ دقیقه
  • نمودار KDE مبتنی بر غلظت و نمودار جعبه‌ای یا همان Box-plot منتشر شده ۵۲ دقیقه
  • داده‌های سری زمانی (Time Series) و نمایش آن‌ها منتشر شده ۲۸ دقیقه
  • آشنایی و رسم نمودار با bokeh منتشر شده ۳۵ دقیقه
  • کار با کتابخانه‌ی bokeh جهت مصورسازی داده‌ها رایگان ۲۹ دقیقه
  • کار با کتابخانه‌ی bokeh جهت مصورسازی داده‌ها (ادامه) منتشر شده ۳۶ دقیقه
  • کار با کتابخانه‌ی bokeh جهت مصورسازی داده‌ها (ادامه) منتشر شده ۱۷ دقیقه
  • آموزش طراحی داده‌ها به صورت تعاملی با bokeh به عنوان سرور منتشر شده ۴۲ دقیقه
  • آموزش طراحی داشبورد مدیریتی با bokeh (پروژه عملی) منتشر شده ۵۹ دقیقه
  • آموزش طراحی داشبورد مدیریتی با bokeh (پروژه عملی) - ادامه منتشر شده ۳۶ دقیقه
  • آموزش طراحی داشبورد مدیریتی با bokeh (پروژه عملی) - ادامه منتشر شده ۳۸ دقیقه
  • آموزش طراحی داشبورد مدیریتی با bokeh (پروژه عملی) - ادامه منتشر شده ۵۵ دقیقه
  • دیپلوی یک پروژه علم داده با bokeh server روی یک سرور آنلاین منتشر شده ۵۲ دقیقه

آمار و آماده سازی داده ها

بررسی تست‌ها و توزیع‌های آماری

  • مقدمات آمار و احتمال و توزیع نرمال رایگان ۴۶ دقیقه
  • توزیع‌های احتمالی (نرمال، یکنواخت، برنولی و باینومیال) منتشر شده ۳۲ دقیقه
  • توزیع‌های احتمالی (چند جمله‌ای، پواسون و نمایی) منتشر شده ۶۱ دقیقه
  • توابع PDF، CDF و PMF و کاربرد آن‌ها در توزیع‌های احتمالی منتشر شده ۴۵ دقیقه
  • تست Kullback-Leibler برای توزیع‌های آماری منتشر شده ۶۶ دقیقه
  • معیار جنسون شنون (Jenson Shanon) برای محاسبه‌ی دو توزیع آماری منتشر شده ۴۲ دقیقه
  • معیار Kolmogorov-Smirnov برای مقایسه‌ی توزیع‌های احتمالی منتشر شده ۴۹ دقیقه
  • کتابخانه‌ی PyIDD و تخمین توزیع‌های آماری رایگان ۱۴ دقیقه
  • آشنایی با P Value کاربرد آن در تست‌های آماری منتشر شده ۶۱ دقیقه
  • تست‌های فرضیه‌ی آماری A-B - مثال کاربردی تغییر صفحه‌ی خرید برای مشتریان (قسمت اول) منتشر شده ۵۵ دقیقه
  • جلسه تست‌های فرضیه‌ی آماری A-B - مثال کاربردی تغییر صفحه‌ی خرید برای مشتریان (قسمت دوم) منتشر شده ۳۱ دقیقه
  • درجه‌ی آزادی (Degree of Freedom)، توزیع F و توزیع Chi2 منتشر شده ۲۵ دقیقه
  • آزمون Z و آزمون T - مثال عملی آزمون داده‌های بیماری کرونا (قسمت اول) منتشر شده ۴۲ دقیقه
  • آزمون Z و آزمون T - مثال عملی آزمون داده‌های بیماری کرونا (قسمت دوم) منتشر شده ۳۳ دقیقه
  • تحلیل واریانس (ANOVA) برای آزمون‌های آماری (قسمت اول) منتشر شده ۲۱ دقیقه
  • تحلیل واریانس (ANOVA) برای آزمون‌های آماری (قسمت دوم) منتشر شده ۳۷ دقیقه

در این فصل به معرفی مقدمه‌ای بر مهندسی داده، هوش تجاری و انبارداده‌ها می‌پردازیم. یاد می‌گیریم که مفاهیم و کلیدواژه‌های اصلی مهندسی داده چیست و برخی از ابزارهای معروف این حوزه‌ها در سطح معرفی، بررسی می‌کنیم.

  • هوش تجاری (BI) و تصمیم‌گیری داده محور منتشر شده ۲۳ دقیقه
  • فرآیند ETL و ELT در جمع‌آوری داده‌ها منتشر شده ۱۷ دقیقه
  • آشنایی با آپاچی AirFlow برای انتقال داده‌های حجیم و زمان‌بندی شده منتشر شده ۳۱ دقیقه
  • کلان داده (Big Data) و انواع مختلف داده‌ها منتشر شده ۱۹ دقیقه
  • روش نگاشت-کاهش (Map-Reduce) و سیستم فایل توزیع شده (DFS) منتشر شده ۴۳ دقیقه
  • آشنایی با هدوپ (Hadoop) و اکوسیستم آن منتشر شده ۲۵ دقیقه
  • پایگاه داده‌های توزیع شده و تئوری CAP منتشر شده ۴۰ دقیقه
  • آشنایی با پایگاه داده‌های SQL و NoSQL منتشر شده ۳۶ دقیقه
  • انبار داده، OLAP و مکعب داده (بخش اول) منتشر شده ۴۳ دقیقه
  • انبار داده، OLAP و مکعب داده (بخش دوم) منتشر شده ۲۸ دقیقه
  • بازار داده (Data Mart) و دریاچه‌ی داده (Data Lake) منتشر شده ۱۰ دقیقه
  • معرفی ابزار python cubes جهت ساخت مدل‌های OLAP و مکعب‌های داده منتشر شده ۵۶ دقیقه

در این فصل به معرفی روش‌های پیش‌پردازش داده‌ها و آماده‌سازی این داده‌ها برای تحلیل و یا تزریق به الگوریتم‌های فصول بعدی، خواهیم پرداخت

  • معرفی کتابخانه‌ی scikit-learn و کتابخانه‌های مرتبط با داده کاوی رایگان ۱۹ دقیقه
  • روش‌های مقدماتی پیش پردازش داده‌ها (Data Preprocessing) - قسمت اول منتشر شده ۴۹ دقیقه
  • روش‌های مقدماتی پیش پردازش داده‌ها (Data Preprocessing) - قسمت دوم منتشر شده ۳۶ دقیقه
  • مباحث تکمیلی در پیش پردازش داده‌ها - قسمت اول (نرمال‌سازی و استانداردسازی داده‌ها، روش K نزدیک‌ترین همسایه برای داده‌های گم شده) منتشر شده ۴۴ دقیقه
  • مباحث تکمیلی در پیش پردازش داده‌ها - قسمت دوم (نرمال‌سازی L1 و L2 و باینرایزر) منتشر شده ۲۸ دقیقه
  • همبستگی (Correlation) و روش‌های Pearson، Spearman و Kendalls Tau در تحلیل داده‌های همبسته منتشر شده ۴۵ دقیقه
  • همبستگی داده‌ها در پایتون (مثال عملی مجموعه داده‌ی فوتبال آمریکایی) منتشر شده ۵۶ دقیقه
  • مباحث تکمیلی EDA و آماده سازی داده‌ها (مثال مجموعه داده‌ی بازی‌های تخته‌ای) منتشر شده ۴۶ دقیقه
  • مثال مجموعه داده‌ی اتومبیل و EDA بر روی داده‌ها منتشر شده ۳۲ دقیقه

مدل سازی پایه

آشنایی با الگوریتم‌ها مختلف

  • طبقه بندی مجموعه داده‌ی MNIST بخش مقدماتی رایگان ۴۸ دقیقه
  • معرفی الگوریتم SVM و استفاده از آن در داده کاوی منتشر شده ۴۳ دقیقه
  • معیارهای Accuarcy، Precision، Recall و F1 برای ارزیابی دقت، صحت و پوشش یک الگوریتم طبقه بندی منتشر شده ۴۵ دقیقه
  • الگوریتم KNN (نزدیک‌ترین همسایه) در طبقه بندی منتشر شده ۳۵ دقیقه
  • الگوریتم درخت تصمیم و مجموعه‌ی داده‌ی گل‌های زنبق (قسمت اول) منتشر شده ۲۹ دقیقه
  • الگوریتم درخت تصمیم و مجموعه‌ی داده‌ی گل‌های زنبق (قسمت دوم) منتشر شده ۳۳ دقیقه
  • ناخالصی جینی (Gini Impurity) و بهره اطلاعاتی (Information Gain) منتشر شده ۳۲ دقیقه
  • بررسی مفهوم bias و variance در طبقه بندی منتشر شده ۴۳ دقیقه
  • الگوریتم جنگل تصادفی (Random Forest) منتشر شده ۲۷ دقیقه
  • الگوریتم Adaboost منتشر شده ۳۳ دقیقه
  • نگاهی دقیق‌تر به پارامترهای الگوریتم SVM (قسمت اول) منتشر شده ۳۱ دقیقه
  • نگاهی دقیق‌تر به پارامترهای الگوریتم SVM (قسمت دوم) منتشر شده ۲۴ دقیقه
  • نگاهی دقیق‌تر به پارامترهای الگوریتم RandomForest منتشر شده ۳۲ دقیقه
  • نگاهی دقیق‌تر به پارامترهای الگوریتم KNN منتشر شده ۳۶ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت اول منتشر شده ۲۸ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت دوم منتشر شده ۱۳ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت سوم منتشر شده ۳۰ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت چهارم منتشر شده ۳۲ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت پنجم منتشر شده ۲۲ دقیقه
  • متن کاوی (Text Mining) و پردازش زبان طبیعی (NLP) - قسمت ششم منتشر شده ۳۳ دقیقه
  • شناسایی بیماران قلبی با استفاده از الگوریتم‌های طبقه بندی منتشر شده ۳۶ دقیقه
  • پیدا کردن بهترین پارامترها در الگوریتم‌ها با استفاده از جستجوی مشبک (Grid Search) منتشر شده ۴۱ دقیقه
  • آشنایی با مسائل رگرسیون و حل مسئله‌ی پیش‌بینی دما (قسمت اول) منتشر شده ۴۰ دقیقه
  • آشنایی با مسائل رگرسیون و حل مسئله‌ی پیش‌بینی دما (قسمت دوم) منتشر شده ۲۵ دقیقه
  • الگوریتم Gradient Boosting و XGBoost برای طبقه‌بندی و رگرسیون منتشر شده ۳۴ دقیقه
  • الگوریتم XGBoost و حل مسئله‌ی تخمین قیمت منزل رایگان ۴۱ دقیقه
  • الگوریتم CatBoost و حل مسئله‌ی تخمین خسارت حادثه شرکت بیمه (قسمت اول) منتشر شده ۳۴ دقیقه
  • الگوریتم CatBoost و حل مسئله‌ی تخمین خسارت حادثه شرکت بیمه (قسمت دوم) منتشر شده ۴۵ دقیقه
  • الگوریتم CatBoost و حل مسئله‌ی تخمین خسارت حادثه شرکت بیمه (قسمت سوم - یادگیری ماشین با GPU و یادگیری با وقفه) منتشر شده ۲۴ دقیقه
  • جمع بندی نیمه‌ی اول دوره تا اینجا + مباحث تکمیلی ارائه شده در آینده رایگان ۳۱ دقیقه

آشنایی با سایر موارد مهم دیگر

  • کاهش ابعاد - قسمت اول (کاهش ابعاد به وسیله‌ی اطلاعات آماری) رایگان ۳۷ دقیقه
  • کاهش ابعاد - قسمت دوم (کاهش ابعاد به وسیله‌ی اطلاعات آماری) منتشر شده ۲۵ دقیقه
  • الگوریتم PCA و KernelPCA در کاهش ابعاد (قسمت اول) منتشر شده ۳۳ دقیقه
  • الگوریتم PCA و KernelPCA در کاهش ابعاد (قسمت دوم) منتشر شده ۳۲ دقیقه
  • الگوریتم Factor Analysis در کاهش ابعاد منتشر شده ۱۶ دقیقه
  • الگوریتم ICA و ISOMAP برای کاهش ابعاد منتشر شده ۲۲ دقیقه
  • الگوریتم TSNE و UMAP برای کاهش ابعاد منتشر شده ۲۰ دقیقه
  • ترکیب الگوریتم‌های کاهش ابعاد برای حل مسائل طبقه بندی منتشر شده ۴۱ دقیقه
  • کار کردن با داده‌های غیر متوازن (Imbalance) - قسمت اول منتشر شده ۲۸ دقیقه
  • کار کردن با داده‌های غیر متوازن (Imbalance) - قسمت دوم منتشر شده ۳۴ دقیقه
  • کار کردن با داده‌های غیر متوازن (Imbalance) - قسمت سوم منتشر شده ۱۹ دقیقه
  • طبقه بندی تصاویر رنگی با استفاده از تکنیک‌های پردازش تصویر - قسمت اول منتشر شده ۳۸ دقیقه
  • طبقه بندی تصاویر رنگی با استفاده از تکنیک‌های پردازش تصویر - قسمت دوم منتشر شده ۲۹ دقیقه
  • طبقه بندی تصاویر رنگی با استفاده از تکنیک‌های پردازش تصویر - قسمت سوم منتشر شده ۲۴ دقیقه
  • طبقه بندی تصاویر رنگی با استفاده از تکنیک‌های پردازش تصویر - قسمت چهارم منتشر شده ۳۰ دقیقه
  • تحلیل و پیش‌بینی سری زمانی با استفاده از SARIMAX - قسمت اول منتشر شده ۵۱ دقیقه
  • تحلیل و پیش‌بینی سری زمانی با استفاده از SARIMAX - قسمت دوم منتشر شده ۳۱ دقیقه
  • معرفی کتابخانه‌ی Prophet برای پیش‌بینی سری‌های زمانی منتشر شده ۲۲ دقیقه
  • جمع بندی فصل + مباحث تکمیلی ارائه شده در آینده رایگان ۱۰ دقیقه

بررسی روش‌های خوشه‌بندی و روش‌های ارزیابی

  • آشنایی با خوشه بندی (Clustering) و کاربردهای آن رایگان ۲۷ دقیقه
  • معرفی الگوریتم KMeans و DBSCAN برای خوشه بندی داده‌ها منتشر شده ۱۹ دقیقه
  • خوشه‌بندی بر اساس مدل RFM بر روی مشتریان فروشگاه اینترنتی - قسمت اول منتشر شده ۳۳ دقیقه
  • خوشه‌بندی بر اساس مدل RFM بر روی مشتریان فروشگاه اینترنتی - قسمت دوم منتشر شده ۳۰ دقیقه
  • خوشه‌بندی، معیار WCSS و تکنیک Elbow منتشر شده ۱۸ دقیقه
  • بررسی روش Silhouette و الگوریتم DBSCAN منتشر شده ۲۲ دقیقه
  • تقسیم‌بندی تصاویر (Image Segmentation) با استفاده از الگوریتم‌های خوشه‌بندی - قسمت اول منتشر شده ۳۰ دقیقه
  • تقسیم‌بندی تصاویر (Image Segmentation) با استفاده از الگوریتم‌های خوشه‌بندی - قسمت دوم منتشر شده ۳۰ دقیقه
  • تقسیم‌بندی تصاویر (Image Segmentation) با استفاده از الگوریتم‌های خوشه‌بندی (Spectral Clustering) - قسمت سوم منتشر شده ۲۷ دقیقه
  • تقسیم‌بندی تصاویر (Image Segmentation) با استفاده از الگوریتم‌های خوشه‌بندی (MeanShift) - قسمت چهارم منتشر شده ۴۰ دقیقه
  • خوشه بندی بر روی متون (Text Clustering) - قسمت اول منتشر شده ۳۴ دقیقه
  • خوشه بندی بر روی متون (Text Clustering) - قسمت دوم منتشر شده ۳۱ دقیقه
  • تشخیص داده‌های پرت (Outlier Detection) - قسمت اول - الگوریتم LOF منتشر شده ۳۳ دقیقه
  • تشخیص داده‌های پرت (Outlier Detection) - قسمت دوم - الگوریتم LOF منتشر شده ۱۵ دقیقه
  • تشخیص داده‌های پرت (Outlier Detection) - قسمت سوم - الگوریتم‌های ABOD و IsolationForest منتشر شده ۲۹ دقیقه
  • تشخیص داده‌های پرت (Outlier Detection) - قسمت چهارم منتشر شده ۱۵ دقیقه
  • جمع بندی فصل + مباحث تکمیلی ارائه شده در آینده رایگان ۱۲ دقیقه

مدل سازی پایه پیشرفته

آشنایی با مفاهیم، کتابخانه‌ها و متدهای شبکه عصبی و یادگیری عمیق

  • آشنایی با شبکه‌های عصبی و پرسپترون رایگان ۳۵ دقیقه
  • پیاده‌سازی یک شبکه‌ی ساده عصبی با پایتون منتشر شده ۳۱ دقیقه
  • آشنایی با چهارچوب تنسرفلو (tensorflow) و کراس (keras) منتشر شده ۲۴ دقیقه
  • پیاده‌سازی طبقه‌بندی تصاویر با تنسرفلو (tensorflow) و کراس (keras) - قسمت اول منتشر شده ۴۱ دقیقه
  • پیاده‌سازی طبقه‌بندی تصاویر با تنسرفلو (tensorflow) و کراس (keras) - قسمت دوم منتشر شده ۳۱ دقیقه
  • پیاده‌سازی شبکه‌های عصبی برای حل مسئله‌ی تشخیص بیماری قلبی عروقی با تنسرفلو و کراس منتشر شده ۳۳ دقیقه
  • شبکه‌های عصبی کانولوشن (CNN) و مدل عمیق یادگیری منتشر شده ۳۸ دقیقه
  • پیاده‌سازی یادگیری عمیق کانولوشنی (CNN) برای طبقه بندی تصاویر - قسمت اول منتشر شده ۳۵ دقیقه
  • پیاده‌سازی یادگیری عمیق کانولوشنی (CNN) برای طبقه بندی تصاویر - قسمت دوم منتشر شده ۲۱ دقیقه
  • پیاده‌سازی شبکه‌های عصبی کانولوشنی (CNN) و استفاده از تکنیک dropout منتشر شده ۲۴ دقیقه
  • آشنایی با انواع توابع فعال‌سازی (activation functions) منتشر شده ۲۹ دقیقه
  • کار با داده‌های حجیم در یادگیری عمیق - قسمت اول منتشر شده ۳۳ دقیقه
  • کار با داده‌های حجیم در یادگیری عمیق - قسمت دوم (افزایش داده‌ها و ساخت داده‌ی مصنوعی) منتشر شده ۳۵ دقیقه
  • مسئله‌ی شناخت بیماری از روی تصاویر xray قفسه سینه و کار با داده‌های نامتوازن در یادگیری عمیق - قسمت اول منتشر شده ۳۵ دقیقه
  • مسئله‌ی شناخت بیماری از روی تصاویر xray قفسه سینه و کار با داده‌های نامتوازن در یادگیری عمیق - قسمت دوم منتشر شده ۲۷ دقیقه
  • آشنایی با مدل‌های معروف یادگیری عمیق کانولوشنی در حل مسائل منتشر شده ۳۶ دقیقه
  • پیاده‌سازی مدل ResNet و مدل پیش یادگیری شده در یادگیری عمیق با Tensorflow و Keras منتشر شده ۲۸ دقیقه
  • پیاده‌سازی Resnet برای تشخیص تصاویر از وبکم لپ‌تاپ منتشر شده ۲۰ دقیقه
  • کار بر روی داده‌های متنی (تحلیل احساس) با شبکه‌های عصبی عمیق کانولوشنی -قسمت اول منتشر شده ۲۹ دقیقه
  • کار بر روی داده‌های متنی (تحلیل احساس) با شبکه‌های عصبی عمیق کانولوشنی - قسمت دوم (تعریف کانولوشن یک بُعدی و word embedding) منتشر شده ۳۳ دقیقه
  • کار بر روی داده‌های متنی (تحلیل احساس) با شبکه‌های عصبی عمیق کانولوشنی - قسمت سوم (تعریف کانولوشن یک بُعدی و word embedding) منتشر شده ۳۳ دقیقه
  • شبکه‌های عصبی عمیق چند کاناله (حل مسئله‌ی تحلیل احساس متن) منتشر شده ۲۲ دقیقه
  • شبکه‌های عصبی عمیق چندکاناله با ورودی چندگانه - قسمت اول منتشر شده ۳۷ دقیقه
  • شبکه‌های عصبی عمیق چندکاناله با ورودی چندگانه - قسمت دوم منتشر شده ۳۹ دقیقه
  • شبکه‌های عصبی عمیق چندکاناله با ورودی چندگانه - قسمت سوم منتشر شده ۲۸ دقیقه
  • جمع بندی فصل + مباحث تکمیلی ارائه شده در آینده رایگان ۱۰ دقیقه

در این سرفصل مباحث تکمیلی و پیشرفته در یادگیری عمیق را با هم مرور و پیاده‌سازی می‌کنیم

  • شبکه‌های عصبی بازگشتی (RNN) منتشر شده ۲۱ دقیقه
  • پیش‌بینی داده‌های بورس با استفاده از شبکه‌های عصبی ساده بازگشتی (simple RNN) منتشر شده ۲۲ دقیقه
  • پیاده‌سازی شبکه‌های عصبی بازگشتی (RNN) در تنسورفلو و کراس منتشر شده ۳۴ دقیقه
  • شبکه‌های عصبی LSTM و GRU و معماری‌های مختلف شبکه‌های عصبی بازگشتی منتشر شده ۲۳ دقیقه
  • پیش‌بینی خرید/فروش رمزارز با شبکه‌های عصبی بازگشتی - قسمت اول منتشر شده ۳۷ دقیقه
  • پیش‌بینی خرید/فروش رمزارز با شبکه‌های عصبی بازگشتی - قسمت دوم منتشر شده ۳۱ دقیقه
  • پیش‌بینی خرید/فروش رمزارز با شبکه‌های عصبی بازگشتی - قسمت سوم منتشر شده ۲۱ دقیقه
  • پیش‌بینی خرید/فروش رمزارز با شبکه‌های عصبی بازگشتی - قسمت چهارم (شبکه‌های عصبی بازگشتی multi state) منتشر شده ۲۱ دقیقه
  • یادگیری انتقالی (Transfer Learning) - قسمت اول منتشر شده ۳۸ دقیقه
  • یادگیری انتقالی (Transfer Learning) - قسمت دوم منتشر شده ۳۳ دقیقه
  • یادگیری انتقالی (Transfer learning) - قسمت سوم منتشر شده ۱۷ دقیقه
  • یادگیری انتقالی (Transfer Learning) - قسمت چهارم منتشر شده ۱۹ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت اول (web scraping) منتشر شده ۲۲ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت دوم منتشر شده ۳۲ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت سوم منتشر شده ۳۳ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت چهارم منتشر شده ۲۲ دقیقه
  • ساخت الگوریتم تولید شعر با شبکه‌های عصبی عمیق - قسمت پنجم منتشر شده ۲۶ دقیقه
  • سیستم ترجمه‌ی ماشینی ساده با الگوریتم یادگیری عمیق بازگشتی - قسمت اول (مدل sequence2sequenc) منتشر شده ۳۱ دقیقه
  • سیستم ترجمه‌ی ماشینی ساده با الگوریتم یادگیری عمیق بازگشتی - قسمت دوم منتشر شده ۳۴ دقیقه
  • سیستم ترجمه‌ی ماشینی ساده با الگوریتم یادگیری عمیق بازگشتی - قسمت سوم منتشر شده ۱۳ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت اول منتشر شده ۳۴ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت دوم منتشر شده ۲۵ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت سوم منتشر شده ۳۱ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت چهارم منتشر شده ۲۷ دقیقه
  • طراحی سیستم ترجمه‌ی ماشینی کامل با شبکه‌های Attention Network - قسمت پنجم منتشر شده ۲۵ دقیقه

آشنایی با یادگیری تقویتی و سایر مسائل کاربردی

  • مقدمه‌ای در مورد یادگیری تقویتی (Reinforcement Learning) رایگان ۲۰ دقیقه
  • حل مسئله‌ی تاکسی خودران با یادگیری تقویتی - قسمت اول منتشر شده ۲۹ دقیقه
  • حل مسئله‌ی تاکسی خودران با یادگیری تقویتی - قسمت دوم منتشر شده ۲۲ دقیقه
  • حل مسئله‌ی تاکسی خودران با یادگیری تقویتی - قسمت سوم منتشر شده ۳۱ دقیقه
  • حل مسئله‌ی تاکسی خودران با یادگیری تقویتی - قسمت چهارم منتشر شده ۱۸ دقیقه
  • یادگیری تقویتی عمیق (Deep Reinforcement Learning) و شبکه‌های DDQN - قسمت اول منتشر شده ۲۷ دقیقه
  • یادگیری تقویتی عمیق (Deep Reinforcement Learning) و شبکه‌های DDQN - قسمت دوم منتشر شده ۳۱ دقیقه
  • یادگیری تقویتی عمیق (Deep Reinforcement Learning) و شبکه‌های DDQN - قسمت سوم منتشر شده ۲۸ دقیقه
  • یادگیری تقویتی عمیق (Deep Reinforcement Learning) و شبکه‌های DDQN - قسمت چهارم منتشر شده ۱۳ دقیقه

پروژه ها و پیاده سازی ها

در این سرفصل که برای تمامی دانشجویان دوره باز شده است، پروژه‌های تکمیلی و ویدیوهایی که به تکمیل و تعمیق مباحث دوره کمک می‌کند را قرار می‌دهیم

  • پیش‌بینی رمز ارزها با استفاده از شبکه‌های عصبی LSTM و ساکن‌سازی - قسمت اول منتشر شده ۲۹ دقیقه
  • پیش‌بینی رمز ارزها با استفاده از شبکه‌های عصبی LSTM و ساکن‌سازی - قسمت دوم منتشر شده ۳۰ دقیقه
  • پیش‌بینی رمز ارزها با استفاده از شبکه‌های عصبی LSTM و ساکن‌سازی - قسمت سوم منتشر شده ۲۶ دقیقه
  • پیش‌بینی رمز ارزها با استفاده از شبکه‌های عصبی LSTM بدون ساکن‌سازی - قسمت چهارم منتشر شده ۲۶ دقیقه
  • وبینار - بررسی و معرفی شرکت‌های داخل ایران جهت استخدام متخصص علم داده و یادگیری ماشین منتشر شده ۷۶ دقیقه

از چه کسی یاد میگیری؟

تصویر مسعود کاویانی

مسعود کاویانی

متخصص علوم داده و یادگیری ماشین

  • مدیر فنی زیرساخت ذخیره‌سازی ابری و مدیر فنی زیرساخت استریمینگ داده شرکت پارس‌پک
  • مدرس و مشاور یادگیری ماشین و داده‌کاوی در شرکت‌ها و سازمان‌ها (جهاد دانشگاهی صنعتی شریف، نیروی انتظامی تهران بزرگ، داروسازی دکتر عبیدی، شهرک صنعتی اصفهان، بیمه سامان)
  • مدیر واحد داده‌کاوی سامانه‌ی خبر فارسی 
  • بنیان‌گذار پروژه‌ی آموزشی چیستیو 
  • تدریس بیش از ۶۰۰ دانشجو و بیش از ۲۰۰۰۰ نفر/ساعت تدریس در حوزه علم داده
  • برنامه‌نویس ارشد شرکت‌های ثانیه، پدیده و آرمین
  • دارنده‌ی مدال کارآفرینی از کمپانی گوگل و کاربر برتر ماه در بخش داده‌کاوی سایت StackOverFlow

رزومه و نمونه تدریس

منتورهای دوره دوستان زیر منتور دوره متخصص علم داده هستند و در طول دوره به سوالات شما پاسخ میدن و همراهتون هستند.

سوالات متداول

آیا یادگیری علم داده پیش‌نیاز خاصی دارد؟

آیا یادگیری علم داده پیش‌نیاز خاصی دارد؟

خیر دوره data science سون لرن پیش نیاز خاصی ندارد. موضوع مهم‌تر داشتن علاقه و اختصاص زمان کافی برای یادگیری است.

بقیه پیش نیازهای یادگیری داده کاوی مانند پایتون، آمار، ریاضیات، جبر خطی در این دوره آموزش داده می‌شود.

درآمد داده کاوی (دیتاساینس) چقدر است؟

درآمد داده کاوی (دیتاساینس) چقدر است؟

تقاضا برای استخدام یک متخصص دیتاساینس زیاد است اما تعداد افراد حرفه‌ای در این حوزه کم است به همین دلیل درآمد یک دیتاساینتیست از سایر برنامه نویس ها بالاتر است. البته درآمد یک متخصص داده کاوی به میزان تسلط و تجربه او هم بستگی دارد.

یادگیری داده کاوی برای چه افرادی مناسب است؟

یادگیری داده کاوی برای چه افرادی مناسب است؟

می‌توان گفت یادگیری علم داده برای سه دسته از افراد مناسب است:

  • برنامه نویس هایی که می‌خواهند سطح دانش خود را بالا ببرند و حقوق بیشتری دریافت کنند.
  • دانشجوهای ارشد و دکترا که برای نوشتن پایان نامه به داده کاوی نیاز دارند.
  • متخصصین حوزه های دیگر مانند پزشکی، کشاورزی، زیست‌شناسی، فیزیک، شیمی و ... که برای گسترش علم خود داده کاوی را یاد می‌گیرند.

یادگیری علم داده کاوی چقدر طول می‌کشد؟

یادگیری علم داده کاوی چقدر طول می‌کشد؟

مدت زمان یادگیری علم داده بستگی دارد به:

  • زمانی که می توانید برای آموزش بگذارید.
  • پیش زمینه‌ای که از قبل دارید.

به صورت عمومی این زمان می‌تواند بین ۹ تا ۱۲ ماه باشد اما اگر وقت بیشتری در روز بگذارید این زمان می‌تواند کمتر (۴ تا ۶ ماه) باشد.

بهترین روش یادگیری داده کاوی چیست؟

بهترین روش یادگیری  داده کاوی چیست؟

وقتی در مورد بهترین روش یادگیری یک زبان برنامه نویسی خاص صحبت می‌شود باید بدانید که شما باید موارد مختلفی را درنظر بگیرید. من دو مورد از مهمترین‌ها را اینجا مطرح می‌کنم.

همیشه قبل از شروع یادگیری برنامه نویسی این دو سوال مطرح می‌شود:

  • آیا بهتر است به صورت self study یاد بگیریم یا یک مشاور و یک منبع جامع داشته باشیم؟ واقعیت این است هر دو روش شما را به هدف‌تان می‌رساند اما زمان رسیدن متفاوت است. ممکن است یادگیری هر زبان برنامه نویسی به صورت self study بین ۲ تا ۳ سال زمان نیاز داشته باشد. ولی اگر یک منبع آموزشی جامع با مدرس باتجربه داشته باشید که حتی پاسخگوی سوالات شما باشد آن مسیر ۳ ساله می‌تواند به یکسال تبدیل شود. من توصیه می‌کنم که اگر زمان برای شما مهم است مسیر دوم را انتخاب کنید.
  • به چه صورت برای یادگیری برنامه نویسی اقدام کنیم که نتیجه بهتری بگیریم؟ واقعیت این است که برنامه نویس بهتر کسی است که قدرت حل مسئله بهتری دارد. و این توانایی با حل مسئله و چالش‌پذیری به دست می‌آید. پس بهتر است در طول یادگیری تمرین کنید، برای خودتان پروژه تعریف کنید و در قالب پروژه چالش‌هایی را برای خودتان طرح کنید و آن چالش‌ها را در کنار آموز‌ش‌هایی که می‌بینید حل کنید. مواردی که در فرآیند چالش‌ها یاد می‌گیرید محال است که فراموش کنید.

پس اگر با یک مدرس با تجربه و معتبر و تمرین و چالش‌پذیری یادگیری را شروع کنید مطمئن باشید بهترین نتیجه را می‌گیرید.

همین الان ثبت نام کن

۱.۱۸۵ میلیون تومان تخفیف پرداخت کامل
۱.۱۸۵ میلیون تومان تخفیف پرداخت نقدی
۷.۹ میلیون تومان
۶.۷۱۵ میلیون تومان
اقساطی در ۴قسط ( به صورت ماهانه)
پرداخت ۴ قسط ۱.۹۷۵ میلیون تومانی ، به صورت ماهانه (مجموعا ۷.۹ میلیون تومان)
مبلغ قسط اول
۱.۹۷۵ میلیون تومان

نیاز به مشاوره تخصصی دارید؟

متخصص علم داده دسترسی سریع به جمع متخصصین بپیوندید ...
نقدی/اقساطی ثبت نام میکنم