การพัฒนาแบบทดสอบมาตรฐานด้านการฟังภาษาอังกฤษ สำหรับนักศึกษามหาวิทยาลัยราชภัฏพิบูลสงคราม
DOI:
https://doi.org/10.14456/psruhss.2024.34คำสำคัญ:
แบบทดสอบมาตรฐาน , ความสามารถด้านการฟัง , ทฤษฎีการตอบสนองข้อสอบบทคัดย่อ
การวิจัยครั้งนี้มีวัตถุประสงค์ 1) เพื่อพัฒนาแบบทดสอบมาตรฐานวัดความสามารถด้านการฟังภาษาอังกฤษสำหรับนักศึกษามหาวิทยาลัยราชภัฏพิบูลสงคราม และ 2) เพื่อหาคุณภาพของแบบทดสอบมาตรฐานและค่าสารสนเทศการฟังภาษาอังกฤษสำหรับนักศึกษามหาวิทยาลัยราชภัฏพิบูลสงคราม กลุ่มตัวอย่าง ได้แก่ นักศึกษาชั้นปีที่ 3 ปีการศึกษา 2564 จำนวน 1,498 คน จาก 8 คณะ เครื่องมือที่ใช้ในการวิจัย ได้แก่ แบบทดสอบแบบปรนัย จำนวน 2 ฉบับ ๆ ละ 100 ข้อ รวม 200 ข้อ และมีการวิเคราะห์คุณภาพของแบบทดสอบโดยใช้การวิเคราะห์ตามแนวทฤษฎีการตอบสนองข้อสอบ (Item Response Theory : IRT) สถิติที่ใช้ในการวิเคราะห์ข้อมูล ได้แก่ ค่าร้อยละ (Percentage) ค่าเฉลี่ย (Mean) ส่วนเบี่ยงเบนมาตรฐาน (Standard Deviation) การหาค่าความยาก (b) อำนาจจำแนก (a) ค่าโอกาสการเดา (c) และความเชื่อมั่นของแบบทดสอบ (Reliability) ผลการวิจัยพบว่า
- แบบทดสอบมาตรฐานวัดความสามารถด้านการฟังภาษาอังกฤษสำหรับนักศึกษามหาวิทยาลัยราชภัฏพิบูลสงคราม จำนวน 2 ฉบับ มีการแบ่งเนื้อหาออกเป็น 4 ตอน จำนวน 200 ข้อ โดยคัดเลือกคำศัพท์ ร้อยละ 95 ของคำศัพท์ที่มีความถี่สูงสุดทั้งหมด และมีค่าดัชนีความสอดคล้อง (IOC) เท่ากับ 0.99 และค่าสัมประสิทธิ์ความเชื่อมั่นแอลฟาครอนบาค (Coefficient Alpha) ทั้งฉบับ เท่ากับ 0.904
- ผลการวิเคราะห์คุณภาพของแบบทดสอบมาตรฐานวัดความสามารถด้านการฟังภาษาอังกฤษสำหรับนักศึกษามหาวิทยาลัยราชภัฏพิบูลสงคราม ตามแนวทฤษฎีการตอบสนองข้อสอบ (Item Response Theory : IRT) พบว่า แบบทดสอบฉบับที่ 1 มีความยาก (b) ตั้งแต่ 0.70 ถึง 2.47 ค่าอำนาจจำแนก (a) ตั้งแต่ –2.23 ถึง 1.62 และค่าโอกาสการเดา (c) ตั้งแต่ 0.00 ถึง 0.26 ส่วนแบบทดสอบฉบับที่ 2 มีค่าความยาก (b) ตั้งแต่ 0.31 ถึง 2.48 ค่าอำนาจจำแนก (a) ตั้งแต่ –1.47 ถึง 2.62 และค่าโอกาสการเดา (c) ตั้งแต่ 0.00 ถึง 0.29 แบบทดสอบฉบับที่ 1 ผ่านเกณฑ์ทฤษฎีการตอบสนองข้อสอบ (Item Response Theory : IRT) มีจำนวน 56 ข้อ ส่วนแบบทดสอบฉบับที่ 2 ผ่านเกณฑ์ทฤษฎีการตอบสนองข้อสอบ (Item Response Theory : IRT) มีจำนวน 76 ข้อ รวมจำนวนข้อสอบจากทั้ง 2 ฉบับที่ได้คุณภาพคือ 132 ข้อ
เอกสารอ้างอิง
ณัฐกานต์ เส็งชื่น. (2566). การศึกษาคลังข้อมูลคำศัพท์ในแนวข้อสอบ TOEIC เพื่อการพัฒนารายการคำศัพท์สำหรับการสอบฟัง. สักทอง: วารสารมนุษยศาสตร์และสังคมศาสตร์, 29(1), 74-90.
เบญจมาภรณ์ เสนารัตน์, บุญชม ศรีสะอาด และจริยา ภักตราจันทร์. (2559). การพัฒนาเครื่องมือประเมินความสามารถทางการวิจัยการศึกษาของนักศึกษาครูมหาวิทยาลัยราชภัฏในภาคตะวันออกเฉียงเหนือ. วารสารการวัดการศึกษา มหาวิทยาลัยมหาสารคาม, 22(1), 164-182.
ศิริชัย กาญจนวาสี. (2563). ทฤษฎีการทดสอบแนวใหม่ (พิมพ์ครั้งที่ 5). กรุงเทพฯ: โรงพิมพ์แห่งจุฬาลงกรณ์มหาวิทยาลัย.
สำนักงานคณะกรรมการส่งเสริมวิทยาศาสตร์ วิจัยและนวัตกรรม (สกสว.). (2562). เอกสารประกอบการเสวนาโครงการวิจัย "ปัญหาความสามารถในการใช้ภาษาอังกฤษของคนไทย: กลยุทธ์และนวัตกรรมในการแก้ปัญหา" วันอาทิตย์ที่ 6 ตุลาคม 2562 ณ โรงแรมเอทัส ลุมพินี.
A Glossary of Measurement Terms Eric Digest. (1989). American Institutes for Research Washington DC. Retrieved May 10, 2023, from http://ericae.net/digests/ed315430 ERIC Clearinghouse on Tests Measurement and Evaluation Washington DC.
Bachman, L. F., & Palmer, A. S. (1996). Language Testing in Practice: Designing and Developing Useful Language Tests. (86-89). Oxford: Oxford University Press.
Bachman, L. F., & Palmer, A. S. (2010). Language assessment in practice. Oxford: Oxford University Press.
Brown, H. D. (2004). Language Assessment: Principle and Classroom Practices. New York: Pearson Education.
Chen, L. (2009). Assessing the Test Usefulness: A Comparison Between the Old and the New College English Test Band 4 (CET-4) in China. Retrieved May 2, 2023 from http://www.diva-portal.org/smash/get/diva2:228454/FULLTEXT01.pdf
Education First. (2020). EF English Proficiency Index: A Ranking of 100 Countries and Regions by English Skills. Retrieved April 29, 2023 from https://www.ef.com/wwen/epi/
Genesee, F., & Upshur, J. A. (1996). Classroom-based evaluation in second language education. Cambridge: Cambridge University Press.
Laufer, B. (1989). What Percentage of Text-Lexis Is Essential for Comprehension? In: Lauren, C. and Nordman, M., Eds., Special Language: From Human Thinking to Thinking Machines, Multilingual Matters, Clevedon, 316-323.
Nitko, A. J. (1996). Educational assessment of students. Prentice-Hall Order Processing Center, PO Box 11071, Des Moines, IA 50336-1071.
Pan, Y.-C. (2009). Evaluating the appropriateness and consequences of test use. Colombian Applied Linguistics Journal, (11), 93–105. https://doi.org/10.14483/22487085.156
Rovinelli, R. J., & Hambleton, R. K. (1977) On the Use of Content Specialists in the Assessment of Criterion-Referenced Test Item Validity. Tijdschrift Voor Onderwijs Research, 2, 49-60.
The European Association for Quality Language Services. (2009). Calibrating tests to the CEFR: A simplified guide for EAQUALS Members on calibrating entry or progress tests to the CEFR. Retrieved April 20, 2023, from http://clients.squareeye.net/uploads/ eaquals2011/ documents/ EAQUALS_Calibrating_tests_to_the_CEFR.pdf
ดาวน์โหลด
เผยแพร่แล้ว
รูปแบบการอ้างอิง
ฉบับ
ประเภทบทความ
สัญญาอนุญาต
ลิขสิทธิ์ (c) 2024 วารสารมนุษยศาสตร์และสังคมศาสตร์ มหาวิทยาลัยราชภัฏพิบูลสงคราม

อนุญาตภายใต้เงื่อนไข Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.
บทความหรือข้อคิดเห็นใดใดที่ปรากฏในวารสารมนุษยศาสตร์และสังคมศาสตร์ มหาวิทยาลัยราชภัฏพิบูลสงครามเป็นวรรณกรรมของผู้เขียน ซึ่งบรรณาธิการไม่จำเป็นต้องเห็นด้วย บทความที่ได้รับการตีพิมพ์เป็นลิขสิทธิ์ของวารสารมนุษยศาสตร์และสังคมศาสตร์ มหาวิทยาลัยราชภัฏพิบูลสงคราม


