Uploaded by Mustafa Magdy

script

advertisement
‫‪Slide 3‬‬
‫واحد من األسباب اللي بتأدي لزيادة معدل الوفيات هو ورم المخ‪.‬‬
‫وده بسبب ان الورم بيتضاعف متوسط حجمه خالل ‪ 25‬يوم بس‪.‬‬
‫واذا لم يتم تشخيص الورم بشكل صحيح‪ ,‬عمر المريض ال يتعدي ‪ 6‬شهور‪.‬‬
‫ وطبقا لدراسة للمعهد األسترالي للصحة والرعاية لسنة ‪ 2017‬وطبقا لألبحاث والتقارير اللي‬‫عملها األطباء وجدو ان‪:‬‬
‫نسبة الوفاة التي يتسبب بها مرض ورم المخ اعلي نسبيا من أي مرض اخر‪.‬‬‫ووجدوا ان من بين كل ‪ 10‬اشخاص يصابوا بالمرض ‪ 2‬بس هما اللي بيعيشوا‪.‬‬‫وده معدل قليل جدا ‪ ,‬ودي األسباب اللي خلتنا نعمل مشروعنا‪.‬‬
‫‪Slide 4‬‬
‫المشكلة هنا ان عندنا صورة أشعة رنين مغناطيسي للدماغ‪.‬‬
‫‪ -‬ومحتاجين نحدد هل فيها ورم وال مفيش ورم‪.‬‬
‫‪Slide 5‬‬
‫ وحلنا المقترح اننا عملنا برنامج بيشتغل علي الكمبيوتر نحاول نسهل علي دكاترة االشعة‬‫تحديد الورم‪.‬‬
‫وده بتم علي ‪ 5‬خطوات‪:‬‬‫‪1. Pre-Processing.‬‬
‫‪2. Segmentation.‬‬
‫‪3. Morphology.‬‬
‫‪4. Features Extraction.‬‬
‫‪5. Classification.‬‬
‫‪Slide 6‬‬
‫ودي اول مرحلة بنعمل فيها (‪ )Noise Reduction‬بنحاول نقلل الــ (‪)Noise‬‬
‫في الصورة وبنستخدم في المرحلة دي الــ (‪)Median Filter‬‬
‫‪Slide 7‬‬
‫وطبقا لبحث اتعمل في ‪ 2018‬ألكتر نوعين ‪ Noise‬موجودين في الصور‬
‫الطبية (اللي هما ‪ ) Salt&pepper – Gaussian‬ودي امثلة لتطبيق الــ‬
‫‪ Median Filter‬علي صورة بدرجات ‪ Noise‬مختلفة‪.‬‬
‫‪Slide 8‬‬
‫طبقا لنفس البحث دي مقارنة بين ‪ 3‬فالتر ( – ‪Weinar – Median‬‬
‫‪ )Adaptive Median‬علي درجات مختلفة من الـ ‪Noise‬‬
‫وجد ان الـ ‪ Median Filter‬هو افضل نوع لعمل ‪ Noise Reduction‬في‬
‫الصور الطبية‪.‬‬
‫‪Slide 9‬‬
‫البنامج‪.‬‬
‫وده تطبيق الـ ‪ median filter‬بعد اختيار الصورة يف ر‬
‫‪Slide 10‬‬
‫بعد تطبيق ال ‪ Median filter‬وشلنا الـ ‪ Noise Reduction‬هدخل مرحلة‬
‫الـ ‪ segmentation‬وبيتم فيها تقسيم الصورة لكذا جزء لمحاولة استخالص‬
‫جزء الورم لوحده‪.‬‬
‫‪Slide 11‬‬
‫وهنا هنستخدم ‪ fuzzy c-mean algorithm‬لتقسيم الصورة لعدد من ال‬
‫‪ clusters‬وعلى حسب المثال اللى قدامنا هنستخدم ‪ clusters 3‬وكل‬
‫‪ cluster‬يحتوى على جزء من الصورة وهنالحظ من اللى قدامنا ان ال‬
‫‪ cluster‬التالت هو اللى بيحتوى ع جزء الورم‪.‬‬
‫‪Slide 12‬‬
‫وده فيديو توضيحي لتنفيذ عملية ال ‪ segmentation‬بتتم ازاى‪.‬‬
‫‪Slide 13‬‬
‫بعد مرحلة ال ‪ segmentation‬طلع معانا جزء الورم ومعاه اجزاء تانية زيادة‬
‫وفيه المرحلة دى هنطبق ال ‪ morphology‬عشان نقلل االجزاء الزيادة اللى‬
‫موجودة مع الورم ‪.‬‬
‫‪Slide 14‬‬
‫عندنا ‪ 2 operations‬اللى هما ‪erosion & dilation‬‬
‫ال ‪ erosion‬بتقلل االجزاء الزيادة او بنقص الزيادات‪.‬‬
‫ال ‪ dilation‬بنمأل الفراغات‪.‬‬
‫‪Slide 15‬‬
‫واحنا هنستخدم ال ‪ erosion‬عشان نشيل او نقلل الزيادات اللى مع الورم‬
‫وده مثال لتطبيق ال ‪ erosion‬على صورة باستخدام ‪structure element‬‬
‫‪3*3‬‬
‫‪Slide 16‬‬
‫وده تطبيق عملي على صورة بعد عملية ال ‪ segmentation‬وفيها زيادات‬
‫وتم عليها عملية ‪ erosion‬ودى الصورة الناتجة بعد ازالة الزيادات‬
‫‪Slide 17‬‬
‫بعد ما خرجنا جزء االورم لوحده فى صورة عاوزين نطلع مجموعة خصائص‬
‫او ‪ features‬بتوصف الورم ودى اللى هنستخدمها فى المرحلة اللى بعد كده‬
‫وهى ال ‪classification‬‬
‫‪Slide 18‬‬
‫هنستخدم فى ال ‪ feature extraction‬الجوريزم ال ‪GLCM‬‬
‫)‪ (Grey Level Co-Occurrence Matrix‬وده عبارة عن ماتريكس عدد‬
‫الصفوف واالعمدة بتاعتها بتساوى عدد ال ‪ gray levels‬لصورة الورم‬
‫‪Slide 19‬‬
‫زى المثال ده كده الصورة االولى فيها ‪ gray level 3‬وبكده الماتريكس بتاعتها‬
‫هتبقي ‪ 3*3‬وبعد ما نحسبها هنعملها ‪normalization‬‬
‫‪Slide 20‬‬
‫بعد ما حسبنا الماتريكس عاوزين نطلع ال ‪ features‬بتاعتها وده عن طريق‬
‫تعويض بمعادالت ثابته فى الماتريكس وبنحسب ‪ features 9‬زى ما الصورة‬
‫موضحة‪.‬‬
‫‪Slide 21‬‬
‫بعد مرحلة ال ‪ feature extraction‬هنبدأ مرحلة ال ‪ classification‬اللى‬
‫هيتم فيها تصنيف الداتا الى جزئين ‪tumor or not tumor‬‬
‫‪Slide 22‬‬
‫فهنستخدم ال ‪ svm algorithm‬وهو عبارة عن ‪supervised learning‬‬
‫بيشتغل على ‪ labeled data‬فاحنا هنا عملنا ‪ model‬باستخدام ال ‪svm‬‬
‫وعملنا ‪ training‬لل ‪ model‬باستخدام الداتا سيت اللى معانا‬
‫‪Slide 23‬‬
‫بعد ما عملنا ‪ training‬للداتا هابدا اعمل ‪ testing‬بال ‪ features‬اللى‬
‫طالعه من الصورة فيحدد لى اذا كان فيه ورم وال أل‬
‫‪Slide 24‬‬
‫عشان اقدر اعمل ‪ classification‬للداتا كان الزم ارسم الداتا عشان اشوف‬
‫هعرف اعمل ‪ separation‬ازاى للداتا واقدر احدد نوع ال ‪ kernel‬اللى‬
‫هشتغل بيه‬
‫‪Slide 25‬‬
‫فعملنا ‪ run‬الربعه ‪ kernel‬عندي وعشان اعرف افضل نوع فيهم عملنا ‪20‬‬
‫‪ run‬يعني ‪ 20‬مرة ‪ training‬لل ‪ model‬وكل مرة بيستخدم ‪random‬‬
‫‪ data‬لل ‪ training‬و ‪ random data‬لل ‪ testing‬فهنحسب ال‬
‫‪ accuracy‬لكل نوع فهنالحظ ان االرقام بتختلف كل مرة عن التانيه الننا‬
‫بنستخدم ‪ random data‬فهنحسب ال ‪ average accuracy‬لكل نوع‬
‫فهنالقي االفضل ال ‪. polynomial‬‬
Download