Please use this identifier to cite or link to this item:
http://cmuir.cmu.ac.th/jspui/handle/6653943832/78393
Full metadata record
DC Field | Value | Language |
---|---|---|
dc.contributor.advisor | Suthep Suantai | - |
dc.contributor.advisor | Attapol Kaewkhao | - |
dc.contributor.advisor | Ekkarat Boonchieng | - |
dc.contributor.author | Limpapat Bussaban | en_US |
dc.date.accessioned | 2023-07-09T05:41:26Z | - |
dc.date.available | 2023-07-09T05:41:26Z | - |
dc.date.issued | 2022-12 | - |
dc.identifier.uri | http://cmuir.cmu.ac.th/jspui/handle/6653943832/78393 | - |
dc.description.abstract | One kind of the most prevalent minimization problem which has been studied extensively is the least absolute shrinkage and selection operator problem (LASSO). Such problem arises in a wide range of applications such as statistical analysis, image processing, machine learning, etc. To solve this problem, several algorithms were introduced and studied by many authors with the challenges of computational speed and accuracy of the algorithms such as the proximal forward-backward splitting method, the Douglas-Rachford splitting method, and the alternating direction method of multipliers, and the primal-dual splitting type methods. In the first results part of this thesis, we present the novel minimization algorithms for solving the lasso problem and also analyze the theoretical weak convergence behavior of the proposed algorithms under some suitable conditions by using a specific technique in fixed point theory. In the part of the application, we apply our main results to solve image restoration problems, and some supervised learning problems. It is shown by some numerical experiments that our algorithms have a good behavior compared with some classical and popular methods such as the forward-backward algorithm (FBA), a new accelerated proximal gradient algorithm (nAGA), and a fast iterative shrinkage-thresholding algorithm (FISTA), etc. In the second results part, the specific type of bi-level convex optimization so called hierarchical convex optimization with primal-dual splitting constrain will be studied and discussed. We propose a new algorithm to solve such problem. A strong convergence and rate of convergence theorems are also proved and investigated. In the final experiment part, our algorithm will be applied to train a specific deep convolution neural networks that are able to solve image denoising and image super-resolution problems. | en_US |
dc.language.iso | en | en_US |
dc.publisher | Chiang Mai : Graduate School, Chiang Mai University | en_US |
dc.title | Novel minimization algorithms and applications to image restoration problems and data prediction | en_US |
dc.title.alternative | ขั้นตอนวิธีการหาค่าต่ำที่สุดแบบใหม่และการประยุกต์ไปยังปัญหาการกู้คืนภาพและการทำนายข้อมูล | en_US |
dc.type | Thesis | |
thailis.controlvocab.lcsh | Algorithms | - |
thailis.controlvocab.lcsh | Mathematical statistics | - |
thesis.degree | doctoral | en_US |
thesis.description.thaiAbstract | หนึ่งในปัญหาการหาค่าต่ำที่สุดที่ได้รับการศึกษาอย่างกว้างขวางคือปัญหาตัวดำเนินการการเลือกและการหดตัวโดยสมบูรณ์น้อยที่สุด (LASSO) ซึ่งเกิดขึ้นและถูกพูดถึงในหลายๆศาสตร์การประยุกต์ไม่ว่าจะเป็น การวิเคราะห์เชิงสถิติ, การประมวลผลภาพ, การเรียนรู้ของเครื่อง และอื่น ๆ ในขณะที่ขั้นตอนวิธีในการหาคำตอบของปัญหาดังกล่าวยังคงมีถูกคิดค้นขึ้นในหลายๆงานวิจัย อาทิเช่น ขั้นตอนวิธี proximal forward-backward splitting, ขั้นตอนวิธี Douglas-Rachford splitting, ขั้นตอนวิธี alternating direction method of multipliers และขั้นตอนวิธี primal-dual splitting type methods ฯลฯ ภายใต้ปัญหาการสร้างขั้นตอนวิธีในการหาคำตอบของปัญหา LASSO ทั้งในเรื่องของประสิทธิภาพ/ความเร็วในการคำนวณรวมถึงความแม่นของโมเดลในการหาค่าคำตอบ ทำให้ปัญหาดังกล่าวยังคงเป็นที่ท้าทายและน่าสนใจสำหรับนักวิจัยในหลายๆงานวิจัย ดังนั้นในวิทยานิพนธ์เล่มนี้ทางผู้เขียนจึงได้นำเสนอขั้นตอนวธีการหาค่าต่ำที่สุดแบบใหม่สำหรับการแก้ปัญหา LASSO อีกทั้งยังได้วิเคราะห์และพิสูจน์ทฤษฎีการลู่เข้าโดยใช้เทคนิคทางทฤษฎีจุดตรึง และในส่วนของบทประยุกต์ผู้เขียนได้ประยุกต์วิธีการดังกล่าวไปยังปัญหาการกู้คืนภาพ, ปัญหาการเรียนรู้แบบมีผู้สอนบางอย่าง ซึ่งผลการทดลองเชิงตัวเลขทำให้เห็นว่าวิธีการดังกล่าวของเรามีพฤติกรรมที่ดีเมื่อเทียบกับขั้นตอนวิธีเดิม เช่น ขั้นตอนวิธี forward-backward (FBA), ขั้นตอนวิธี new accelerated proximal gradient (nAGA), และขั้นตอนวิธี fast iterative shrinkage-thresholding (FISTA), ฯลฯ. ผู้เขียนได้ศึกษาปัญหา hierarchical convex optimization with primal-dual splitting constrain ซึ่งเป็นกรณีเฉพาะหนึ่งของปัญหา bi-level convex optimization ในส่วนที่สองของผลงานวิจัย นอกจากนี้ยังได้เสนอวิธีการใหม่พร้อมทั้งพิสูจน์ทฤษฎีการลู่เข้าแบบเข้มและ rate of convergence ซึ่งวิธีการดังกล่าวสามารถนำไปประยุกต์ใช้ในการสอน deep convolution neural networks ให้เรียนรู้ในการแก้ปัญหาเฉพาะ อาทิ image denoising และ image super-resolution ได้อีกด้วย | en_US |
Appears in Collections: | SCIENCE: Theses |
Files in This Item:
File | Description | Size | Format | |
---|---|---|---|---|
600551010-ลิมปพัทธ์-บุษบัน.pdf | 40.21 MB | Adobe PDF | View/Open Request a copy |
Items in CMUIR are protected by copyright, with all rights reserved, unless otherwise indicated.