Notifications

You are here

อีบุ๊ค

การออกแบบและพัฒนาระบบควบคุมตำแหน่งสำหรับหุ่นยนต์ถื...

TNRR

Description
โครงการนี้นำเสนอการพัฒนาต่อยอดสิ่งประดิษฐ์ หุ่นยนต์ถือกล้องผ่าตัด (Single-point manipulating laparoscope robot) สำหรับเป็นผู้ช่วยศัลยแพทย์ผ่าตัดเฉพาะทางนรีเวชกรรม ด้วยการใช้โปรแกรมประมวลผลภาพร่วมกับหุ่นยนต์ที่สามารถระบุอวัยวะได้ 5 รูปแบบคือ มดลูก รังไข่ ท่อนำไข่ เส้นเลือดฝอยและเครื่องมือผ่าตัด ในการเขียนโปรแกรมประมวลผลภาพให้เรียนรู้อวัยวะนั้น จะใช้ชุดข้อมูลทั้งหมด 5 ชุดข้อมูลคือวิดีโอที่ได้ทำการผ่าตัดมาแล้ว เป็นชุดข้อมูลตัวอย่างทำการเขียนโปรแกรมการจดจำและจำแนกภาพ จากนั้นทดสอบความแม่นยำแบบชุดข้อมูลเดี่ยว (Self-validation) และแบบข้ามชุดข้อมูล (Cross-validation) หาตัวแปรที่มีผลต่อความแม่นยำ ความเร็วในการจำแนกอวัยวะและส่งข้อมูลตำแหน่งมายังชุดควบคุมหุ่นยนต์ถือกล้องผ่าตัด โดยข้อมูลที่ส่งมายังหุ่นยนต์จะเป็นตำแหน่งพิกัดฉาก , , ที่ได้จากภาพ (Pixel) จากนั้นหุ่นยนต์จะแปลงเป็นพิกัดทรงกลม , , เพื่อให้หุ่นยนต์เคลื่อนที่ให้อวัยวะที่ต้องการไปอยู่ตรงกลางของภาพ ในการทดสอบการประมวลผลภาพร่วมกับหุ่นยนต์จะทดสอบในศพอ่อนจำนวน 2 ศพ ผลการทดสอบกับแบบชุดข้อมูลเดี่ยวที่ได้จากการเตรียมข้อมูลตัวอย่าง พบกว่าความแม่นยำของการระบุอวัยวะอยู่ระหว่าง 80% ถึง 100% โดยความแม่นยำต่ำที่สุดคือการจำแนกรังไข่ ส่วนการจำแนกมดลูกมีความแม่นยำ 100% จากนั้นชุดข้อมูลตัวอย่างที่ได้นั้น มาหาค่าความแม่นยำแบบข้ามชุดข้อมูล โดยพบว่าการระบุอวัยวะมีค่าความแม่นยำมากขึ้น มากกว่า 85% ทั้งมดลูก รังไข่ ท่อนำไข่ เส้นเลือดฝอยและเครื่องมือผ่าตัด และการทดสอบระหว่างชุดข้อมูลตัวอย่างกับศพอ่อนจำนวน 2 ศพร่วมกับหุ่นยนต์ถือกล้องผ่าตัด มีความแม่นยำระหว่าง 59% ถึง 100% โดยการระบุมดลูกมีความแม่นยำมากที่สุดเท่ากับ 100% และอวัยวะที่มีความแม่นยำน้อยที่สุดคือเส้นเลือดฝอยมีค่าความแม่นยำเท่ากับ 59.63% การเพิ่มชุดข้อมูลให้โปรแกรมเรียนรู้จะช่วยให้เพิ่มความแม่นยำในการจำแนกอวัยวะได้ สำหรับหุ่นยนต์ที่ได้ออกแบบนั้นมีกลไกการเคลื่อนที่แกนพิกัดทรงกลม องศาการเคลื่อนที่ และ ในขณะที่กล้องเคลื่อนที่เข้าออกเท่ากับ 0 – 15 เซนติเมตร เมื่อเทียบกับจุดศูนย์กลาง หุ่นยนต์สามารถเคลื่อนที่หาเป้าหมายให้ศัลยแพทย์ได้เมื่อโปรแกรมประมวลผลภาพตรวจจับอวัยวะดังกล่าวได้คำสำคัญ หุ่นยนต์ถือกล้องผ่าตัด, การประมวลผลภาพ, การเรียนรู้เชิงลึก, ปัญญาประดิษฐ์<br><br>This research project presents an invention development of Robotic Assisted Surgery (RAS), the Laparoscope Manipulating Robot (LMR). The prototype robot was designed to handle the camera for assisting the surgeons in gynecologic capable of five organs object detection using our developed image processing software. The target organs to be identified consist of uterus, ovary, fallopian-tube, capillary, and surgical instruments. To train the detectors, five datasets of labeled images derived from recorded videos of various cases of Total Laparoscopic Hysterectomy (TLH) were used. The classification models (detectors) were then validated through both self-validation and cross-validation with the accuracy, precision, and recall metrices. The most evaluated detector was selected to be used for identifying the target organ to send position to robot’s controller in a form of cartesian coordinate ( , , ) calculated from the image’s pixels. Then, derived coordinate will be translated to spherical coordinate ( , , ) to move the robot’s arms in spherical shape which can track and lock the target organ into center of screen. For operational test of the robot combined with object detection, this research utilized two cases of the soft-body cadaver. The results of each classification model validation were found that the accuracy scores of organs identification reached to 80% - 100% in which the lowest score was of ovaries detection whereas the highest score was of uterus at 100%. The results of cross-validation of mixed dataset reported that the accuracy scores in detection were reach at least 85% of all organs. Furthermore, the validation of selected classification model combined with the robot through two cases of soft-body cadaver resulted in 50% - 100% of accuracy scores across five organs detection. The highest score was uterus at 100% and the lowest score was capillary at 59.63%. The movement of robot arm projected in z-axis can reach the range of 0 – 15 centimeters from the center point, whereas the spherical movement can have a range between -15 to 15 degrees.Keywords Laparoscope Manipulating Robot (LMR), Digital image processing, Deep learning method, Artificial intelligence

Date of Publication :

02/2023

Publisher :

สำนักงานการวิจัยแห่งชาติ (วช.)

Category :

รายงานการวิจัย

Total page :

77012 pages


เว็บไซต์นี้ใช้คุกกี้

เราใช้คุกกี้ (Cookie) เพื่อใช้ในการปรับปรุงประสิทธิภาพเว็บไซต์ ท่านสามารถศึกษารายละเอียดการใช้คุกกี้ได้ที่ นโยบายคุกกี้
ยอมรับ