-
Notifications
You must be signed in to change notification settings - Fork 3
Commit
- Loading branch information
There are no files selected for viewing
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Large diffs are not rendered by default.
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1 @@ | ||
{"pageProps":{"postData":{"id":"15-thawat-khumphaen","content":"\n![image](/images/2024/15/01.png)\n\n- แรงบันดาลใจ: แรงบันดาลใจของผมมาจากสิ่งที่ผมได้เจอมากับตัวเอง จากการที่ผมมีฟันคุด 4 ซี่ ซึ่ง 1 ในนั้นเป็นฟันคุด มันไปเบียดฟันข้างๆทำให้ฟันกรามที่โดนเบียดผุไปด้วย ผมรู้สึกเสียใจมากที่ต้องสูญเสียฟันแท้ตั้งแต่ตอนอายุ 18 ปี แต่มันก็ทำให้ผมได้เห็นวิธีการทำงานของหมอฟัน ตั้งแต่การวินิจฉัยด้วยตาเปล่าจากภายนอก การ X-rays ฟันทั้งแบบ ฺBitewing X-ray(แบบเฉพพาะซี่) และ Panoramic X-rays(แบบเห็นทั้งฟัน ไซนัส และกระดูกขากรรไกร) ขั้นตอนในการถอนฟันคุด การอุดฟัน รวมถึงการนัดเช็คระ15ยะฟันข้างๆฟันคุดว่ามีรอยผุมั้ย \n- เป้าหมาย: ผมอยากที่จะทำโครงงานนี้ขึ้นมาเพื่อช่วยให้คุณหมอทำงานได้สะดวกขึ้นและช่วยตรวจสอบฟันซี่อื่นๆที่อาจจะไม่ได้เกี่ยวกับบริเวณฟันที่มีปัญหา เพื่อเพิ่มประสิทธิภาพในการวินิจฉัย\n- dataset จาก kaggle(Teeth Segmentation on dental X-ray images) โดยข้างใน Dataset นี้ จะมี Image และ Mask และ Json file อยู่อย่างละ 598 file\n- จากการนำ Teeth Segmentation on dental X-ray images dataset มาใช้ในการเทรนโมเดล Res-Unet โดยใช้ Adam optimizer, learning rate = 0.000006, batch size = 5, ไม่มีการ Flip หรือ Rotation ภาพ เมื่อนำมา test จะได้ Dice score = 0.9039711356163025\n- future plan คือการทำให้โมเดลสามารถตรวจจับฟันผุ และฟันคุดได้\n\n### แรงจูงในในการเข้าร่วมโครงการ (จากใบสมัครเข้าร่วมเมื่อ 10 สัปดาห์ที่แล้ว)\n\n> เนื่องจากผมเคยสมัคร ai builder มาแล้วครั้งนึงในปีที่แล้วซึ่ง<strong> <u>ผมไม่ติด</u></strong> ทำให้ผมได้พัฒนาตัวเองให้เก่งขึ้นจากการเรียนรู้ด้วยตนเอง และจากการเข้าค่ายต่างๆ ผมเห็นว่าทางโครงการรับนักเรียนที่จบม.6ในปีนี้ด้วย ผมจึงได้สมัครเข้ามา เป้าหมายของผมคือการสร้าง ai ที่มีประโยชน์ต่อสังคม ผมจึงได้สมัครเข้าร่วมโครงการนี้เพื่อหาความรู้และพัฒนาทักษะในการทำ ai เนื่องจากผมได้ติดมหาวิทยาลัยในสาขาวิศวกรรมหุ่นยนต์และระบบอัตโนมัติ ผมจึงอยากใช้เวลาในช่วงปิดเทอมนี้พัฒนาตัวเองให้เก่งขึ้นอีก เพื่อจะได้นำ ai ไปประยุกต์ใช้กับงานด้านหุ่นยนต์ ผมยังเป็น beginner ในการทำ ai ผมจึงอยากได้ mentor ที่คอยเป็นที่ปรึกษาให้ผม ซึ่งโครงการนี้มี mentor คอยให้คำปรึกษา ผมคิดว่าการมี mentor และการลงมือทำ จะทำให้ผมได้รู้จัก ai มากขึ้น และคำแนะนำจาก mentor จะมีประโยชน์กับตัวผมเป็นอย่างมาก<strong> ผมจะมุ่งมั่น ตั้งใจ และรับฟังคำแนะนำจาก mentor เพื่อที่จะนำความรู้ที่ได้จากโครงการ ai builder นี้มาพัฒนานาตนเอง และนำไปใช้เกิดประโยชน์ต่อสังคมให้ได้มากที่สุด สุดท้ายนี้ผมเชื่อว่า \" ai ที่ผมสร้างขึ้นมาจะสามารถช่วยเหลือสังคมและทำให้โลกใบนี้ดีขึ้นได้ \"</strong>\n ","date":"31-7-24","title":"Teeth segmentation using Res-UNet","builder":"ธวรรธน์ คุ้มแผน(แซน)","builder_info":"สาธิตมหาวิทยาลัยราชภัฏนครปฐม / นครปฐม","thumbnail":"/images/2024/15/01.png","links":{"github":"https://github.com/SanThawat/aibuilder-deploy","facebook":"","blog":"https://medium.com/@sand32kpan/25ec1d5c7c86"}}},"__N_SSG":true} |
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1 @@ | ||
{"pageProps":{"postData":{"id":"16-bunyaphon-chaimongkolsup","content":"\n![image](/images/2024/16/01.png)\n\n- โมเดลจำเเนกรูปภาพอัลตราซาวนด์เพื่อตรวจมะเร็งไทรอยด์ โดยใช้ข้อมูลจาก Kaggle (Algerian Ultrasound Images Thyroid Dataset : AUITD) ของโรงพยาบาลเเอลจิเรียในเมืองเซติฟ เป็นภาพจากเครื่องอัลตราซาวนด์ Toshiba Viamo , Toshiba Aplio 300 เเละ Toshiba Aplio XG\n- ได้เเรงบรรดาลใจมาจากที่ตนเองเป็นโรคเกี่ยวกับต่อมไทรอยด์\n- Benign 620 รูป , Malignant 584 รูป , Normal thyroid 171 รูป\n- Train set = 1100 , Test set = 275 (80% / 20%) ทำการจำเเนกรูปภาพว่าเป็น normal (ไทรอยด์ปกติ) , benign (เนื้องอกไม่อันตราย) หรือ malignant (เนื้องอกชนิดร้าย)\n- เเพทย์ที่ไม่ได้เชี่ยวชาญเฉพาะด้านต่อมไทรอยด์ มีความแม่นยำในการแปลผลภาพอัลตราซาวนด์ด้วยสายตาประมาณ 55–70% เเละเเพทย์ที่เชี่ยวชาญ มีความแม่นยำในการแปลผลภาพอัลตราซาวนด์ด้วยสายตาประมาณ 80–90% โดยใช้เวลาเฉลี่ย 10–20 นาที หากเป็นภาพที่ซับซ้อนก็ต้องใช้เวลานานขึ้น\n- เปรียบเทียบสถาปัตยกรรม Vision Transformer, Resnet50, VGG16 ผลปรากฎว่า Vision Transformer ได้ค่าความแม่นยำสูงที่สุด\n- โมเดลสามารถจำเเนกภาพได้ค่า f1-score อยู่ที่ 93 %\n\n### แรงจูงในในการเข้าร่วมโครงการ (จากใบสมัครเข้าร่วมเมื่อ 10 สัปดาห์ที่แล้ว)\n\n> ตอนเด็กๆหนูเป็นคนที่ชื่นชอบหุ่นยนต์เป็นอย่างมาก มันทำให้หนูสงสัยมาตลอดว่า ทำไมสิ่งที่ไม่มีชีวิต ถึงได้สามารถเคลื่อนไหวเหมือนกับมันเป็นสิ่งมีชีวิต ทั้งที่มันเป็นเเค่เศษเหล็กเเท้ๆ หนูเลยได้ลองหาข้อมูลเพิ่ม จนได้มารู้จักกับคำว่า ai หนูได้เคยศึกษา k-nearest neighbors , decision tree , classification มาบ้างเเละก็เข้าใจเเค่งูๆปลาๆอยู่ดี จนวันนี้หนูได้รู้จักกับโครงการ ai builder เเละหนูคิดว่าโครงการนี้เเหละ ที่จะช่วยให้หนูได้เรียนรู้จนสามารถพัฒนาความสามารถของตัวเองให้เติบโตได้อย่างรวดเร็ว เเละได้รับคำเเนะนำต่างๆทั้งจากพี่ๆ mentor ta รวมถึงเพื่อนๆที่มีใจรักคอมเหมือนกัน หนูขอบคุณมากๆที่มีโครงการนี้ขึ้นมา เพราะโครงการนี้ทำให้หนูได้เห็นโปรเจคเจ๋งๆจากหลายๆคนเเละโครงการนี้ยังเเบ่งปันความรู้เจ๋งๆที่สามารถดูได้ฟรีบนยูทูป หนูซาบซึ้งมากจริงๆค่ะ สุดท้ายนี้หนูหวังว่าสักวันหนูจะมีโปรเจคของตัวเองเเสดงอยู่ที่เพจ ai builder หนูสัญญาว่าจะทำให้เต็มที่เเละนำคำเเนะนำทุกอย่างมาเเก้ไขเพื่อให้ได้ผลงานใน version ที่ดีที่สุด\n ","date":"31-7-24","title":"Thytra (Thyroid Ultrasound Image Classification for Disease Diagnosis)","builder":"บุณยาพร ชัยมงคลทรัพย์(เบล)","builder_info":"สระบุรีวิทยาคม / สระบุรี","thumbnail":"/images/2024/16/01.png","links":{"github":"https://github.com/BunyaphonChaimongkolsup/Deploy-AIB2024-Thytra","facebook":"","blog":"https://medium.com/@bunyaphon536/thytra-thyroid-ultrasound-image-classification-for-disease-diagnosis-e26591bd1b82"}}},"__N_SSG":true} |
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1 @@ | ||
{"pageProps":{"postData":{"id":"17-nattapong-pakdeeviboon","content":"\n![image](/images/2024/17/01.png)\n\n- สร้างTraffic law question answering เพราะว่าอยากที่รู้ข้อกฎหมายเกี่ยวกับการจราจรว่าการกระทำเเบบไหนนั้นผิดกฎหมาย \n- จะเป็นการทำ RAG (Retrieval Augment Generation) รวมกับการทำ 2 stage retrieval \n- ในการทำ RAG จะต้องมี data ที่เก็บไว้เป็นเเหล่งอ้างอิง นำเอกสารกฎหมายของพระราชบัญญิติการจราจรมาทำเป็น structure data \n- testset เป็นข้อมูลสำหรับการทดสอบที่ประกอบด้วยคำถาม 103 ข้อ ซึ่งคำถามเหล่านี้ถูกออกแบบมาเพื่อวัดประสิทธิภาพของโมเดลที่ใช้ในการตอบคำถามเกี่ยวกับกฎหมายจราจร คำถามเหล่านี้เป็นคำถามทั่วไปที่พบได้ในการจราจร\n- ทดลองกับ 3 Model ด้วยกัน 1. BM25 2. BGE-M3 3. ME5 ผลออกมาBGE M3 มีคะเเนนมากที่สุดเลยได้ศึกษาเพิ่มเติมเเละเจอการคำนวนคะเเนน 5 เเบบ 1. Dense 2. Sparse 3.Multi vector 4.Dense + Sparse 5. Dense + Sparse + Multi vector เนื่องจากทำ 2 stage retrieval ก็เลยจะเป็นที่จะต้องนำ top k passage ไปเข้า reranker โดย rerank เราจะใช้ BGE M3 reranker เเละจากนั้นส่งคำตอบไปให้ large language model \n- ข้อเสนอแนะ (เพิ่มเติม) เนื่องจากเป็นกฎหมายเลยจะมีการอัพเดทอยู่เรื่อยดังนั้นต้องรวบรวมจนถึงฉบับล่าสุด เพิ่มความเเม่นยำของการทำ retrieve ให้มีมากยิ่งขึ้น\n\n### แรงจูงในในการเข้าร่วมโครงการ (จากใบสมัครเข้าร่วมเมื่อ 10 สัปดาห์ที่แล้ว)\n\n> ผมเป็นอีกคนนึงที่ได้เติบโตมาพร้อมกับเทคโนโลยี เท่าที่จำความได้ ผมก็ชอบสิ่งนี้ไปเเล้ว ความสนใจและความหลงใหลในเทคโนโลยีไม่เพียงแต่ปลูกฝังความคิดสร้างสรรค์และการแก้ไขปัญหาในตัวผม ในช่วงเวลาที่ผ่านมาผมได้รู้จักผู้คนที่มีความสามารถทางด้านนี้หลายๆคน เเลัวชอบสายงานเป็นอย่างมาก เเละไม่นานมานี้ผมได้รู้จักกับ ai ที่เป็นอีกสิ่งหนึ่งที่เข้ามามีผลต่อชีวิตความเป็นอยู่ของผมเป็นอย่างมาก จึงพยายามที่จะเรียนรู้ด้วยตัวเองในหัวข้อต่างๆอย่างเเละได้เรียนรู้จากรายการsuper ai engineer ss4 ที่เป็นการเรียนใน mooc ในเรื่องของ machine learning, neural network ,image processing,กับการทำ eda data เเละ data virtualization , การเขียนภาษา python โดยการพัฒนา ai จะเป็นอาชีพที่มีการเติบโตเป็นอย่างมากในช่วง 10 ปีข้างหน้านี้ ไม่ว่าจะเป็น machine learning engineer , data science , data engineer ผมอยากที่ประสบการณ์การได้โครงงานจริง เพื่อที่จะสั่งสมประสบการณ์ที่ได้ทำ ai ให้มากยิ่งขึ้น\n ","date":"31-7-24","title":"Traffic law question answering ","builder":"ณัฐพงษ์ ภักดีวิบูลย์(รันช์)","builder_info":"นวมินทราชินูทิศ สตรีวิทยา พุทธมณฑล / กรุงเทพมหานคร","thumbnail":"/images/2024/17/01.png","links":{"github":"https://github.com/Runnies23/Traffic-law-question-answering","facebook":"","blog":"https://medium.com/@nattapongryan230707/traffic-law-question-answering-ai-builder-eda0bf121b1d"}}},"__N_SSG":true} |
Original file line number | Diff line number | Diff line change |
---|---|---|
@@ -0,0 +1 @@ | ||
{"pageProps":{"postData":{"id":"18-suppamok-tosranon","content":"\n![image](/images/2024/18/01.png)\n\n- Model for identifying popular english books from a brief description of that book with BGE-m3 model\n- I got the dataset from CMU Book Summary Dataset containing 16344 book summary and I added 8 questions per book, 130,732 questions overall, with Google AI Gemini\n- I did not do any training on BGE-m3 because of time limitations and problems with answer keys, I explained more in my Medium blog.\n- The model has an accuracy of 0.278 before reranking and 0.111 after reranked. But after carefully manually analyzing the prediction from 30 books. I have found out that most of the ones that the model got wrong, the predicted one is either a book with the same genre or book with a similar plot.\n\n\n### แรงจูงในในการเข้าร่วมโครงการ (จากใบสมัครเข้าร่วมเมื่อ 10 สัปดาห์ที่แล้ว)\n\n> จากการที่ผมได้ไปเข้าหลายๆโครงการและค่ายที่เกียวกับ ai และ machine learning มา ผมก็ได้รู้ว่าผมมีความสนใจในด้านนี้และอยากที่จะศึกษาต่ออย่างจริงจัง ผมจึงได้มาเจอโครงการนี้และบวกกับรุ่นพี่ที่ได้แนะนำโครงการนี้มา ผมจึงมีความสนใจและใฝ่ฝันที่จะเข้าโครงการนี้ ทั้งเพือที่จะพัฒนาตัวเองและอยากที่จะเขียนโครงการที่สามารถนำไปใช้ได้ในชีวิตจริง ผมอยากที่จะเรียนรู้การเก็บข้อมูลให้แม่นยำและรวดเร็วจากหลายๆแห่ง หลังจากที่ผมได้เรียนจบโครงการนี้แล้ว ผมอยากที่จะมาทำ research ของผมเกี่ยวกับการตรวจจับโรคจากภาพ mri หรือ x-ray เพื่อที่จะได้ช่วยบุคลากรทางการแพทย์ในการดูและวิเคราะห์โรคได้เร็วขึ้น\n ","date":"31-7-24","title":"Book Identifier by BGE-m3 model","builder":"ศุภโมกข์ ธูสรานนท์(จิมมี่)","builder_info":"เซนต์คาเบรียล / กรุงเทพมหานคร","thumbnail":"/images/2024/18/01.png","links":{"github":"https://github.com/The-Jimmy/ai-builder-bookIdentifier ","facebook":"","blog":"https://medium.com/@dajimmy.m/book-identifier-by-bge-m3-model-8dba59ea4d6a "}}},"__N_SSG":true} |