خرید فایل ویدیویی پروژه‌ی علم داده «بررسی و پیش‌بینی حضور و غیاب کارکنان»

می‌توانید بخشی از این پکیج ویدیویی را در کلیپ کوتاه زیر مشاهده نمائید

قصد خرید دارید؟

همین الان می‌خرم!

نیاز به توضیحات بیشتر دارید؟

در این پروژه چه خواهیم دید؟

  • ابتدا مسئله را شرح داده و سناریوهای مختلف را بررسی می‌کنیم.
  • سپس داده‌های موجود را آماده می‌کنیم، در واقع پیش‌پرداز‌ش‌های لازم را انجام می‌دهیم.
  • در مرحله‌ی بعد، از رگرسیون لجستیک برای یک مورد جداسازی و پیش‌بینی رفتار کارکنان در آینده استفاده می‌نمائیم.
  • در مرحله‌ی آخر، ابتدا توضیحاتی در خصوص نرم‌افزار تبلو ارائه داده. سپس داده‌های جدیدی که از الگوریتم یادگیری ماشین بدست آمده را با استفاده از این پلت‌فرم، تجزیه و تحلیل می‌نمائیم.

 بعد از تهیه این پروژه چه چیزهای بدست خواهید آورد؟

  •  فایل‌هایی ویدیویی کوتاه که بیننده با توجه به شرایط خود بتواند براحتی آنها را بررسی کند. طول مدت آموزش 270 دقیقه می‌باشد. 
  • فایل PDF شامل توضیحاتی کامل و دقیق در خصوص پروژه.
  • پشتیبانی مادام‌العمر بصورت عضویت در سایت و ارسال تیکت پشتیبانی.
  • بعد از مشاهده‌ی ویدیوها، یک آزمون از سمت ما از متقاضی بعمل خواهد آمد تا میزان فهم و یادگیری شخص، برای دو طرف مشخص شود. سؤالات را در ادامه برای مشاهده‌ی شما پیوست نموده‌ایم. 

در این پروژه از چه ابزارهایی استفاده خواهیم کرد؟

Python + Jupyter Notebook + Excel + Tableau

عناوین ویدیوها

عنوان و شماره ویدیو

زمان

0- مقدمه

00:13:55

1- آشنایی با مسئله

00:11:23

2- آشنایی با داده ها و وارد کردن آنها در ژوپیتر

00:08:07

3- بررسی بیشتر دیتاست و کپی کردن آن

00:06:50

4- آشنایی با چند واژه در حوزه های مختلف

00:06:10

5- حذف ستون آی دی

00:06:41

6- آنالیز ستون دلیل غیبت

00:06:01

7- ساختن متغیرهای مجازی از ستون دلایل غیبت

00:13:22

8- کاهش تعداد متغیرهای مجازی

00:16:50

9- ترکیب دیتافریم‌ها و بازآرایی آنها

00:06:54

10- یک جمع‌بندی و ساخت نقطه توقف

00:03:25

11- آنالیز ستون تاریخ

00:03:54

12- بکارگیری «فرمت» در پردازش داده های تاریخ

00:05:44

13- استخراج روز و ماه از ستون تاریخ

00:10:51

14- تکرار برخی از تکنیک‌ها و بررسی 5 ستون دیگر

00:10:11

15- آنالیز ستون تحصیلات و استخراج دیتاست نهایی

00:10:21

16- استفاده از یادگیری ماشین برای پیش بینی

00:13:30

17-ساختن یک نقطه‌ی بررسی و معرفی نمودن ورودی‌ها

00:07.48

18- استانداردسازی ورودی‌ها

00:05:06

19- جداسازی داده‌ها به دو قسمت آموزش و آزمایش

00:11:39

20- آموزش دادن رگرسیون لجستیک

00:09:04

21- ساخت جدول خلاصه از ضرایب

00:08:17

22- تفسیر عناصر جدول خلاصه از ضرایب

00:06:46

23- استانداردسازی سفارشی از مشخصه‌ها

00:15:58

24- ساده‌سازی مدل؛ حذف مشخصه‌های کم اثر

00:07:33

25- تست مدل، گام نهایی فرایند یادگیری ماشین

00:06:37

26_ خروجی گرفتن از مدل و معرفی یک ماژول

00:08:38

27- یکپارچه‌سازی نتایج و تحویل یک پکیج آماده

00:12:24

28- نصب تبلو و آنالیز دیتاست پیش‌بینی شده

00:09:52

29- آنالیز دلایل غیبت نسبت به احتمال‌های بدست آمده

00:05:32

30- آنالیز هزینه‌های حمل و نقل و فیلتر آن نسبت به تعداد فرزندان

00:07:33

مدت زمان کل

04:29:15

چرا نیاز به این ویدیوها داریم؟

در این مجموعه از فایل‌های ویدیویی، شما مراحل مختلف انجام یک پروژه، از مقدمات گرفته تا ماژول‌سازی (در پایتون) و بکارگیری مدل را خواهید دید. با توجه به گستردگی عظیم این حوزه (علم داده)، افراد در این رشته باید تا آنجایی که در توان دارند، با پروژه‌های قبلی انجام شده آشنایی پیدا نموده تا بتوانند بخوبی آنها را در محیط کاری خود بکار بگیرند. 

مبلغ پرداختی جهت خرید زیاد نیست؟

شما یکبار برای آموختن یک ابزار و علم کاربردی پرداخت می‌نمائید و در محیط کاری خود، چندین بار آنرا بکار خواهید گرفت. این ارزش یادگیری امروز شما را چندین برابر می‌کند. یادتان باشد برای تضمین یک آینده روشن، امروز تا می‌توانید باید روی خود سرمایه‌گذاری نمائید.

خرید این محصول

خرید

ما را در شبکه‌های اجتماعی دنبال کنید

15 پاسخ

  1. سلام استاد گرانقدر
    با دیدن این ویدئو می توان دیگر تمام پروژه‌ها را حل کرد؟
    و اینکه اگر سوالی برایمان پیش اومد شما پاسخ گو هستید؟

    1. سلام آیدین جان؛
      عزیزه من، این پروژه فقط یک مطالعه‌ی موردی هست و تنها قابل تعمیم به مسائل و موارد مشابه می‌باشد. اونقدر الان کارهایی که با داده دارند انجام می‌دهند وسیع شده که شما یا هر شخصی که در ابتدای راه هست، فقط باید کارهای قبلی انجام شده رو ببینه تا بتونه با کلیت مسیر، آشنا بشه. هر چی پروژه‌های بیشتری ببینی، طبیعتاً از لحاظ ذهنی و تکنیکی بیشتر آماده خواهی شد.
      اگر سوال خاصی داشته باشید، همین‌جا مطرح خواهید کرد و بنده و‌ ادمین دوم مجموعه، در خدمت شما هستیم. اگر هم سؤال خیلی خاصی داشته باشید، از طریق شماره‌ی واتس‌اپی که در صفحه‌ی اینستاگرام گذاشته شده، می‌تونید فایل صوتی ارسال کنید.

        1. سلام، این اولین پروژه‌ای هست که تیم ما داره منتشر می‌کنه. ضمناً آقای محمدی در حال آپلود یک پروژه‌ی عالی در خصوص تحلیل دیتاستهای گوگل پلی در کانال یوتیوب علم داده هست. حتماً ببینید.

          1. پروژه هایی که در سایت های خارجی انجام شده است، میشه معرفی کنید چه سایت هایی هست؟

  2. سلام جناب دکتر فزوني عزيز
    متاسفانه من به دليل فوت برادرم موفق نشدم فايل ها رو به موقع دريافت کنم و امکان دانلود فايل ها از طريق لينک هاي ارسالي به ايميل بنده ميسر نيست.
    ممنون ميشم بنده رو راهنمايي بفرماييد تا بتونم فايل ها رو دانلود کنم
    با سپاس

  3. سلام جناب آقاي دكتر
    به دليل امتحانات و ارائه ي يك پروژه ي درسي، با تاخير شروع به ديدن فيلم ها نمودم
    دو پارت اول را مشاهده نمودم، عالي بودند
    بعد از مشاهده ي پارت سوم، اگر امكانش باشد تمايل دارم در امتحاني كه لينكش رو قبلا فرستاده بوديد، شركت كنم.
    تشكر از زحماتتون

  4. بهترین پکیجی بود که تابحال تهیه کردم. دکتر فزونی امیدوارم همیشه بدرخشی و خواهشاً بیشتر از این کارها ضبط کنید.

  5. با عرض سلام و تشکر بابت این آموزش عالی
    یک سوال داشتم: اگر داده های دریافتی ما مثلا از 20 تا شرکت باشه حالا یا در غالب فایل csv یا از دیتابیس هاشون چجوری و با چه شیوه ای باید این حجم از داده را اصطلاحاً یک کاسه کرد و در یکجا جمع کرد که بعد شروع کنیم به پیش پردازش داده و clean کردن داده تا به دیتای مناسبی برسیم و سایر مراحل را ادامه بدهیم؟

    1. سلام محمد جان
      یکی از مشکلات کار با شرکت‌ها و کارخانجات همینه که عموماً استانداردی برای ذخیره سازی داده‌ها ندارند. حتی اگر تمامی اونها در فایلهای سی.اس.وی. به ذخیره‌سازی بپردازند، باز هم تیم تحلیل داده باید در هنگام یکپارچه سازی بسیار دقت کنند. اما در مجموعه‌های بزرگ، چون استانداردی وجود دارد، اونجا راحت میشه کار کرد. اما این بستگی داره به اینکه اونها کجا دیتاهاشون رو ذخیره کردند. مثلاً برخی از ارگانها اونقدر دیتاهاشون محرمانه است که خودشون با هزینه های بسیار سنگین، دیتاسنتر می‌سازند و داده‌هاشون رو اونجا ذخیره میکنند و براحتی نمیشه دسترسی پیدا کرد. ولی اونهایی که محرمانگی زیادی ندارند در سرویسهای ابری ذخیره میشن و براحتی میشه وارد اکانتهای خاصی شد و دیتاها رو منتقل کرد به مکان مورد نظر. در کل اینکه میگن 80% سختی کار در سه فاز ابتدایی است، این موارد هم در اونها قرار دارد. پس پاسخ بنده بطور خلاصه میشه، همه چیز به اون 20 سازمان بستگی دارد، اینکه چقدر اصولی داده‌هاشون رو ذخیره کردند، محرمانگی دیتاها چقدر هست، در کجا ذخیره شده؟ نوع داده چیه (فیلم، عکس، عدد، …) اون شرکتها چقدر بروز هستند. امیدوارم این خطوط کمکت کنه.

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد.