Тест – це сукупність завдань, які треба виконати при проход- женні тестування. Тести, призначені для самоперевірки, містять незмінний набір завдань, що сформував викладач при створенні 101 підручника. Такі тести мають на меті не стільки встановлення рівня знань студента, скільки допомогу ретельніше розібратися в навчальному матеріалі. Набагато більше значення мають тести для проведення рубіжного контролю успішності навчання. Їх застосовують при встановленні рівня засвоєння матеріалу після закінчення роботи над навчальним модулем, а також на семест- рових іспитах і заліках. За результатами таких тестувань студент отримує оцінку в балах, яка впливає на порядок подальшого ви- конання навчального курсу й рейтинг студента. Отже, результати рубіжних тестувань мають принципове значення для визначення індивідуальної успішності студента, тому при їх проведенні потрібно створити умови для уникнення будь-яких спотворень оцінки.
Валідність і надійність тесту Тести мають відповідати вимогам валідності та надійності встановлення рівня знань студентів. Валідність тесту (від en. valid – здатний, дієвий) характеризує придатність тесту для визначення тієї властивості, яку дослід- жують тестуванням [25]. У педагогічних вимірюваннях валідними називають тести, результати яких об'єктивно та повно 102 відображають рівень засвоєння навчального матеріалу студентами. Валідність тесту визначається змістом завдань, їх формою та додатковими умовами, що закладені в тесті. Розглянемо це докладніше. Для змістовного наповнення тестів автор створює банк завдань. Цю роботу він починає з послідовного розгляду навчального матеріалу, засвоєння якого контролюватиметься. Автор виділяє основні положення, поняття, твердження й дані, якими студент має володіти після вивчення курсу.
Надійність тесту характеризує відтворюваність результатів те- стування при виконанні його кілька разів одним і тим самим студентом чи однією групою студентів. Кількісно надійність визначається коефіцієнтом надійності, що розраховують як коефіцієнт кореляції між результатами послідовних тестувань в однакових умовах. Не вдаючись до теорії розрахунків кореляційних коефіцієнтів [4], пояснимо уявлення про надійність тесту на простому прикладі. Скажімо, студент проходить тестування рівня знань деякого навчального матеріалу. Тест формує комп'ютерна програма, обираючи питання випадковим чином із банку завдань. Результат студента становить 80 балів із 100 можливих. Студенту пропонують виконати тестування в таких умовах кілька разів із невеликими перервами для відпочинку. За послідовних тестувань він отримав такі оцінки: 80, 78, 82, 81. Відхилення від середнього значення в цьому ряду становить не більше + 2 балів, а ступінь відтворюваності 98 %. Це свідчить про висо- ку повторюваність результатів й надійність тесту. Надійність тесту впливає на точність визначення оцінки, якій можна довіряти.
Кількість завдань у тесті впливає на його надійність і точність. Цей вплив не прямо пропорційний. Наприклад, якщо взяти тест з надійністю 0,76, то після збільшення кількості завдань удвічі його надійність зростає тільки до 0,86 [4]. Збільшення розміру тесту сприяє також підвищенню валідності, оскільки розширює коло питань за матеріалами курсу. Виходячи з цих міркувань укладач тестів намагатиметься розмістити в тесті як можна більше завдань. Але, з іншого боку, це треба робити з оглядом на необхідність обмеження часу тестування. По мірі виконання тесту студент втомлюється й починає припускатися помилок, що не пов'язані з його знаннями. Таким чином тест втрачає свої вимірювальні властивості, якщо тривалість тестування перевищує час настання втоми.
Досвід історії освіти показав, що час ефективної навчальної роботи студента становить 45 хв. Його називають академічною годиною, після якої необхідна перерва в роботі. Таким чином час тестування не має перевищувати 40-50 хв. Зазвичай завдання стандартної форми упорядковують так, щоб на виконання одного вистачало 30– 60 с. [19]. З відношення тривалості тесту до часу на одне завдання випливає, що довжину тесту треба обмежувати 50- 60 завданнями. У [26] показано, що тест із 50 завдань спроможний забезпечити надійність на рівні 0,9. Отже, тест із 50–60 завдань забезпечує достатньо високу надійність із врахуванням того, що рівень втоми студента по завершенні тестування ще слабко впливає на результат [4, 19, 26]. Виходячи з кількості завдань у тесті можна планувати повну їх кількість у банку завдань. Для урізноманітнення тестів потрібно, щоб кількість завдань у банку перевищувала їх кількість в одному тесті принаймні в чотири–п'ять разів
Оцінювання рівня знань за результатами тестування
Рубіжні тести призначені для педагогічних вимірювань. Під цим розуміють знаходження числового показника, що характеризує рівень знань студента. Рівень визначають шляхом нарахування балів за виконання кожного із завдань. Це може бути зроблено за дихотомічним чи політомічним принципом [27, 28].
Дихотомічний принцип оцінювання полягає в простому способі нарахування балів:
повністю правильна відповідь оцінюється в 1 бал, а всі інші – оцінюються нулем.
Іншими словами, лише за умови вибору студентом всіх правильних відповідей і відкидання всіх неправильних, він отримує 1 бал. Якщо ж принаймні один із правильних варіантів не враховано, або вибрано принаймні один неправильний, то така відповідь оцінюється в 0 балів. Пояснимо цей принцип оцінювання завдань на прикладі.
Оцінювання цього завдання в дихотомічний спосіб дає один бал, якщо студент обирає єдину правильну відповідь F12 = F13. При виборі іншого співвідношення чи їх комбінації відповідь оцінюється в нуль балів.
Політомічний принцип оцінювання гнучкіший. На відміну від дихотомічного підходу тут, крім імовірностей правильних і неправильних відповідей, існує можливість відповісти частково правильно. Завдання складається з кількох тверджень, частина з яких неправильна. Кількість правильних відповідей у завданні не вказується. Таким чином, існує вірогідність обрати не всі правильні відповіді або разом із правильними вибрати й неправильні. За кожну правильну відповідь 1 бал нараховується, а за кожну неправильну – віднімається.
Таким чином бали, набрані в тесті, визначаються різницею між кількостями правильних і неправильних відповідей. Якщо ця різниця від'ємна, то завдання оцінюється нулем балів. Отже, максимальна оцінка за виконання завдання дорівнює кількості правильних тверджень.
Для прикладу наведемо завдання з фізики Виберіть усі правильні закінчення для твердження: Можна вважати ударом взаємодію:
Сонця з кометою, що потрапила в навколосонячний простір;
Сонця з планетами сонячної системи;
більярдних куль з поверхнею столу при їхньому русі;
більярдних куль між собою, коли вони рухаються по столу.
У цьому завданні дві правильні відповіді (Сонця з кометою, що потрапила в навколосонячний простір, більярдних куль між собою, коли вони рухаються по столу). Вибір обох дасть 2 бали за виконання завдання. За обрання ще й неправильної відповіді, наприклад взаємодія Сонця з планетами сонячної системи, нараховується від'ємний бал (–1), і сумарний бал зменшиться до 1. При виборі за правильні всіх чотирьох варіантів студент отримує 0 балів. У випадку оцінки за дихотомічним принципом студент міг би отримати тільки дві крайніх оцінки: 1 бал при обранні двох правильних відповідей і 0 – в усіх інших випадках. Оцінка у різних шкалах. Максимальна кількість балів, що може набрати студент при виконанні різноманітних тестів, за- 107 лежить від кількості завдань у тесті та принципу їх оцінювання. Дійсно, підрахунки балів за дихотомічною та політомічною схемами дають різні значення балів. Але незалежно від способу підрахунку балів виникає необхідність переходу до шкал оціню- вання, які прийняті в системі освіти. Для цього можна застосувати нормування результату. Нормований результат визначають як відношення балів, що набрав студент, до максимально можливої їх кількості в певному тесті. Найбільш зручно це відно- шення показувати у відсотках, що фактично характеризують результат тестування за стобальною шкалою оцінювання рівня знань. Стобальна шкала використовується в сучасній модульно-рейтинговій системі організації навчального процесу [12]. За необхідності від неї легко можна перейти до інших шкал оцінювання. У табл. 3.1 показані в балах границі переходів до Національної шкали (відмінно, добре тощо) і шкали EСTS (European Credit-Transfer System) [29, 30].
Тому основними завданнями в комп'ютерному тестуванні є складання досконалих тестів й застосування надійних способів обробки та інтерпретації результатів.
Інтерпретація результатів тестування
Раніше ми розглянули коректні способи створення тестових завдань, формування тестів і проведення тестувань. Після тестування студент отримує суму балів, які можна перевести в оцінку у відомих шкалах педагогічних вимірювань [39]. Але при такому формальному підході треба мати впевненість, що набрані бали правильно відображують рівень знань, що він не спотворений іншими факторами. Для розгляду та розв'язання проблем інтерпретації результатів існує низка теоретичних розробок.
2. Комп'ютерні програми для проведення тестувань
Для впровадження комп'ютерної перевірки знань необхідно мати спеціалізоване програмне забезпечення тестування (ПЗТ).
Його можна умовно поділити на дві частини:
першу – застосовують при створенні тестових завдань;
головна функція другої частини – встановлення правильності виконання тестових завдань і на цей підставі – оцінювання рівня знань студента.
Тестові завдання мають обмежений набір форм (див. п. 3.3.1). Формалізована перевірка виконання завдань відбувається так, що ПЗТ порівнює коди відповіді студента з кодами, що закладені як правильні. ПЗТ виробляє команду на зарахування правильної чи неправильної відповіді залежно від того, було або не було зафіксовано співпадіння кодів.
Створення комп'ютерної програми за таким алгоритмом не є важким завданням для кваліфікованого програміста. Тому багато навчальних закладів створювали власні програми тестування. У той самий час ПЗТ розробляли й спеціалізовані комерційні організації. Такі програми випускали як у вигляді окремого програмного продукту, так і як програмний модуль, що входить до загального програмного забезпечення системи управління навчанням [54, 55].
Професійні ПЗТ постійно вдосконалювали та збільшували їх функціональні можливості. Їх розвиток спрямовувався на об'єднання в одній системі засобів створення завдань, проведення тестувань, математичної обробки результатів та їх захищене зберігання.
Як наслідок, професійні ПЗТ значно ускладнились, а спрощені розробки власного виробництва перестали задовольняти сучасні потреби [56]. Крім того, з'явились досконалі ПЗТ безплатного застосування [57], і необхідність розробки саморобних програм тестування відпала.
Розглянемо засоби й функціональні можливості сучасного ПЗТ.
Вимоги до засобів створення тестових завдань
Сучасне ПЗТ повинно мати засоби:
• створення не менше п'яти стандартних форм тестових завдань (Одиничний чи множинний вибір, Установлення відповідності, Перетягування об'єктів тощо).
Вісім можливих форм наведено в п. 3.3.1. Додатково можуть надаватися засоби для створення завдань спеціальних форм (Твір, Розв'язок задачі, Аналітична формула тощо);
• внесення завдань та їх відображення в тесті. У ПЗТ створено умови для того, щоб непрофесійний користувач міг легко внести завдання до системи комп'ютера.
Текстові завання можуть бути введені з клавіатури через інтерфейс ПЗТ чи імпортовані до системи тестування у вигляді заздалегідь підготовлених файлів.
Обов'язково передбачається можливість використання шаблонів типових завдань в електронній формі, а також їх підготовка у звичних програмах створення та редагування текстових і табличних файлів:
Microsoft Word, Microsoft Excel, Notepad (Блокнот);
• імпорту та вставлення зображень, формул, схем, таблиць, HTML, OLE документів, аудіо- та відеомультімедійних об'єктів до тестових завдань та варіантів відповідей і розв'язків.
Вимоги до засобів проведення тестувань
Новітні ПЗТ оснащуються засобами, які дозволяють:
1. Зменшити ймовірність фальшування при тестуванні. Для цього тест формується індивідуально для кожного випробуваного. У простому варіанті робиться зміна порядку надання завдань з одного й того самого набору. У ПЗТ високого рівня для цього застосовується випадковий відбір певної кількості завдань із великої бази. Кількість завдань в тесті задає викладач. Завдання відбираються так, щоб до тесту будо включено завдання з різ- них розділів теми (п. 3.4.2).
2. Проводити адаптивне тестування. У такому тестуванні використовують завдання, складність яких попередньо встановлено з експериментальних досліджень. Адаптивний тест формується під час його виконання. Спочатку випробовуваному дається завдання середньої складності, при правильному виконанні якого пропонується – складніше, при неправильному – простіше.
У результаті скорочується час тестування, що дає позитивні результати:
• час тестування не перевищує часу порогу втомлення, тому його результати не спотворені цим фактором (п. 3.4.2); • тестування дешевшає, оскільки зменшуються витрати за використання складного комп'ютерного обладнання та спеціальних приміщень, що має велике значення для тестування великих груп випробуваних;
3. Надавати коментарі до відповідей. У найпростіших випадках повідомляється, що відповідь зарахована як правильна чи неправильна. У докладніших коментарях показують правильну відповідь, а у випадку неправильної відповіді пояснюють причину помилки та надають додатковий навчальний матеріал. У художньому оформленні коментарів можуть бути задіяні анімо- вані персонажі (викладач, учений, лікар тощо), які демонструють своє ставлення до відповіді, тим самим впливаючи на емоційну сферу студента.
4. Задавати умови тестування, серед яких можуть бути обмеження на час тестування та на час виконання окремого тестового завдання залежно від їх складності.
Вимоги до функціональних можливостей системи
Сучасне програмне забезпечення тестування повинно мати:
1. Засоби внесення вагових коефіцієнтів складності до кожного тестового завдання. В автоматичному режимі проводяться розрахунки за результатами тестування та надається оцінка рівня знань студента безпосередньо після виконання тесту. Проводиться обробка результатів тестування, відповідно до існуючих моделей теорії тестування (п. 3.5).
2. Засоби автоматичного створення звітів за результатами виконання тестів студентами. Форму звіту обирає викладач із великого набору шаблонів у системі. Звіти про виконання тестів і повна інформація про студентів мають надійно зберігатися за умови забезпечення заходів захисту від несанкціонованого доступу. Для цього має бути передбачено можливість використання однієї із широковживаних баз даних (MySQL, Microsoft SQL server).
3. Засоби підтримки як локального, так і мережевого режимів тестування. Необхідність тестування за допомогою комп'ютерної мережі виникає при проведенні одночасного виконання тестів великою групою студентів, що навчаються дистанційно. Для надання доступу користувачів до систем із різним програмним забезпеченням і комп'ютерними засобами передбачаються можливості імпорту та експорту тестів у найбільш поширених форматах (Microsoft Word, Excel, XML). ПЗТ має бути стандартизованим для виконання широкого спектру процедур обробки та передавання даних, сумісних з існуючими системами управління навчанням.
4. Зручний інструментарій для зв'язку із системою тестування. Панель інструментів на дисплеї комп'ютера повинна мати прийнятно структуровану систему кнопок керування. Інструментарій викладача для настройки параметрів тестування й адміністрування розташовується в зоні, відокремленій від кнопок, що використовують студенти для входу до системи, надання відповідей і переходів між тестовими завданнями. Кнопки оформлені так, що графічна символіка підказує їх призначення (інтуїтивний інтерфейс).
Приклади програмних пакетів для впровадження тестувань у навчальний процес
Більшості вимог до ПЗТ, що розглянуті вище, відповідають програмні модулі тестування, які входять до систем управління навчанням. Серед них – СУН Moodle [54] та Ilias [55], що є програмними продуктами вільного та безплатного користування. Важливо зазначити, що відкрите програмне забезпечення постійно вдосконалюється міжнародною спільнотою програмістів і має високу якість. Для впровадження комп'ютерного тестування в закладах, які не використовують системи управління навчанням, звичайно застосовують спеціалізовані програмні розробки. Існує велика кількість програмних пакетів такого призначення, наприклад таких, як SunRav TestOfficePro, WebQuiz XP, Course Lab, Adobe Captivate.
Їх загальна структура звичайно однотипна – тестові програми різних розробників мають три програмні блоки:
• створення тестів (конструктор тестів);
• представлення завдань для виконання;
• обробки результатів тестування.
Розглянемо функції цих блоків і засоби взаємодії з ними (інтерфейси) на прикладі вільно розповсюджуваної програми Hot Potatoes [57]. Блок КОНСТРУКТОР призначено для наповнення тестів завданнями.
У ньому закладені шаблони створення завдань п'яти форм:
• JQuiz – множинний вибір правильної відповіді;
• JCloze – заповнення пропусків;
• JMatch – установлення відповідності;
• JCross – кросворд;
• JMix – розстановка елементів у правильній послідовності.
Література до розділу 3 1. Жарких, Ю.С. Діагностика рівня знань за допомогою тестів / Ю.С. Жарких, Є.В. Драган // Вісн. Київ. ун-ту. Сер. Кібернетика. – 2005. – Вип. 6. – С. 62-65. 2. Звонников, В. Современные средства оценивания результатов обучения : учеб. пособие / В. Звонников, М. Челышкова – М. : Изд. центр "Академия", 2007. – 224 с. 3. Тягунова, Т.Н. Философия и концепция компьютерного тестиро- вания / Т.Н. Тягунова – М. : МГУП, 2003. – 246 с. 4. Ким, В.С. Тестирование учебных достижений / В.С. Ким. – Уссурийск : УГПИ, 2007. – 214 с. 5. Аванесов, В.С. Основы педагогической теории измерений / В.С. Аванесов // Педагогические измерения. – 2004. – №1. – С. 69-74. 6. Методичні рекомендації щодо формування тестових завдань і тестів / А.Г. Загородній, Д.В. Федасюк, Л.Д. Озірковський, А.В. Гунька- ло, Л.М. Пилипенко. – Л. : Львів. політехніка, 2010. – 24 с. 7. Красюк, Ю.М. Масштабне тестування студентів з використанням дистанційних технологій / Ю.М. Красюк, І.В. Шабаліна // Інформаційні технології в освіті : зб. наук. праць. – Херсон : Херсонський держ. ун-т. – 2008. – Вип. 1. – С. 72-77. 8. Про невідкладні заходи щодо запровадження зовнішнього незале- жного оцінювання та моніторингу якості освіти : Постанова Кабінету мініст- рів України №1312 від 31.12.05. [Електронний ресурс]. – Режим доступу : URL:http://crimeatest.org.ua/files/4_normativni_dokumenti/4_3_postanovi_k abminu/pro_nevidkladni_zahodi.doc. – Назва з екрану 9. Аванесов, В.С. Основы научной организации педагогического контроля в высшей школе : учеб. пособие / В.С. Аванесов – М. : Исслед. центр, 1989. – 167 с. 10. Волков, Н. Тестовый контроль знаний : учеб. пособие / Н. Волков, А. Алексеев, Н. Алексеев – Сумы : ООО "ИТД "Университ. книга", 2004. – 109 с. 11. Яшанов, С. М. Комп'ютерне тестування / С.М. Яшанов, І. М. Сме- калін. – К. : НПУ, 2008. – 84 с. 12. Про проведення педагогічного експерименту з кредитно- модульної системи організації навчального процесу : Наказ Міністерства освіти і науки України № 48 від 23.01.04. [Електронний ресурс]. – Режим доступу : URL:http://karazin.ru/information/bolon/mon48.rtf. – Назва з екрану. 13. Переверзєв, В.Ю. Технология разработки тестовых заданий : справ. руководство / В.Ю. Переверзев. – М. : Е-Медиа, 2005. – 265 с. 14. Кириленко, Е. Г. Разработка тестовых заданий для компьютерного тестирования : учеб. пособие / Е.Г. Кириленко. – Х. : ХАИ, 2007. – 129 c. 137 15. Кречетников, К.Г. Задания в тестовой форме и методика их раз- работки / К.Г. Кречетников. – Владивосток : ДВГУ, 2002. – 40 с. 16. Аванесов, В.С. Форма тестовых заданий / В.С. Аванесов. – М. : Центр тестирования, 2005. – 156 с. 17. Lufthansa to Europe: Virtual Pilot! [Electronic Resource]. – Mode of access : URL : http://www.lufthansa-vp.com/vp1/play.html./– Title from the screen. 18. Челышкова, М.Б. Теория и практика конструирования педагоги- ческих тестов / М.Б. Челышкова. – М. : Логос, 2002. – 432 с. 19. Аванесов, B.C. Композиция тестовых заданий : учеб. книга / В.С. Аванесов. – М. : Адепт 1998. – 217 с. 20. Майоров, А.Н. – Теория и практика создания тестов для системы образования / А.Н. Майоров. – М. : Интеллект-центр, 2001. – 296 с. 21. Ахо, А. Теория синтаксического анализа, перевода и компиля- ции / А, Ахо, Дж. Ульман. – М. : Мир, 1978. – 243 с. 22. Говорухин, В. Н. Введение в Maple. Математический пакет для всех / В.Н. Говорухин, В.Г. Цибулин. – М. : Мир, 1997. – 208 с. 23. Жарких, Ю.С. Автоматизація перевірки формульних виразів / Ю.С. Жарких, О.С. Бичков, Є.В. Драган, О.В. Третяк // Педагогіка і пси- хологія. – 2006. – №4 – С.55-62. 24. Выбор оптимальной длины педагогического теста и оценка на- дежности его результатов [Электронный ресурс]. – Режим доступа : URL : http://www.e-joe.ru/sod/99/2_99/st160.html./– Название с экрана. 25. Рудюк, Т.Я. Методичні підходи до створення валідних тестових завдань з природничих наук / Т.Я. Рудюк // Вісн. Тестування і моніто- ринг в освіті. Центр тестових технологій і моніторингу якості освіти. – 2007. – № 12. – С. 34-36. 26. Нейман, Ю.М. Педагогическое тестирование как измерение / Ю.М. Нейман, В.А. Хлебников. – М. : Центр тестирования МО РФ, 2002. – 67 с. 27. Frary, R.B. Formula Scoring of Multiple-Choice Tests (Correction for Guessing) / R.B. Frary // Educational measherement: Issues and Practice. – 1988. – V. 7. – №2 – Р. 33-38. 28. Tecla, L. Innovative Item Types in Computer Based Testing: Scoring of Multiple Response Items / Lampe Tecla, Theo Eggen // Citogroep. Netherland. – 2003. – Sept. 29. Варгалюк, В. Аналіз результатів педагогічного експерименту з впровадження шкали ECTS у ВНЗ України / В. Варгалюк, Т. Деркач // Інформатика та інформаційні технології в навчальних закладах. – 2007. – № 1. – С. 66-70. 30. Бесчастний, В.М. Стандартизація освітніх систем на етапі вхо- дження України до Болонського процесу / В.М. Бесчастний // Економі- 138 ка та держава // Міжнародний наук.-практ. журн. – 2009. – № 9 (81). – С. 77-79. 31. Морев, И. А. Образовательные информационные технологии. Ч. 2. Педагогические измерения : учеб. пособие / И.А. Морев. – Влади- восток : Дальневост. ун-т, 2004. – 174 с. 32. Морев, И.А. Образовательные информационные технологии. Ч. 4. Развивающий измерительный процесс в вузе / И.А. Морев. – Вла- дивосток : Дальневост. ун-т, 2004. – 148 с. 33. Морев, И.А. Образовательные информационные технологии. Ч. 5. Методическая система стимулирования обучаемости средствами дидактического тестирования / И.А. Морев. – Владивосток : Дальне- вост. ун-т, 2004. – 120 с. 34. Жарких, Ю.С. Вплив одночасного застосування різних шкал оці- нок на рейтинговий розподіл студентів за рівнем знань / Ю.С. Жарких, С.В.Лисоченко, Б.Б. Сусь, О.В. Третяк // Науковий часопис НПУ імені М.П. Драгоманова. – 2011, Вип. 27. – С. 75-81. 35. Жарких, Ю.С. Информативность рейтинговой системы оценива- ния уровня знаний студентов / Ю.С. Жарких, Є.В. Драган, О.В. Третяк // Новий колегіум. – 2008. – №3. – С.34-42. 36. Жарких, Ю.С. Врахування рівня складності тестових завдань при комп'ютерній діагностиці знань / Ю.С. Жарких, Є.В. Драган // Вісн. Київ. ун-ту. Сер. Фіз.-мат. науки. – 2006. – №3 .– С.325-330. 37. Гласс, Дж. Статистические методы в педагогике и психологии / Дж. Гласс, Дж. Стенли. – М. : Прогресс, 1976. – 495 с. 38. Wainer, H. Principals of Modern Psychological Measurement. / H. Wainer, S. Messik. – New Jersey : Lawrence Erlbaum Associates, 1983. – 377 p. 39. Жарких, Ю.С. Розрахунок показника рівня знань при комп'ютер- ному тестуванні /Ю.С. Жарких, Є.В. Драган // Вісн. Техн. ун-ту "Харківський політехнічний інститут". – 2005. – №18. – С.61-66. 40. Crocker, Linda. Introduction to Classical and Modern Test Theory / Linda Crocker, James Algina. – N.-Y. : Harcourt Brace Jovanovich, 1986 . – 544 р. 41. Hambelton, R.K. Fundamentals of Item Response Theory. / R.K. Hambelton, H. Swaminathan, H.J. Rogers. – United States of America : Sage publications, 1991. – 174 р. 42. Linden, W.J. Handbook of Modern Item Response Theory / W.J. Linden, R.K. Hambelton. – Springer, 1997. – 510 р. 43. New Horizons in Testing: Latent Trait Test Theory and Computerized Adaptive Testing. [Weiss D.J. (Ed.)]. – N.-Y. : Academic Press, 1983. – 345 р. 44. Lord, F.M. Application of Item Response Theory to Practical Testing Problems / F.M. Lord. – Hillsdale N-J : Lawrence Erlbaum Ass., Publ., 1980. – 266 р. 139 45. Rasch, G. Probabilistic Models for Some Intelligence and Attainment tests / G. Rasch. – Chicago : The University of Chicago Press, 1981. – 199 p. 46. Andrich, D. Rasch Models for Measurement (Quantitative Applications in the Social Sciences) / D. Andrich. : Sage Publications, Inc, 1988. – 96 p. 47. Baker, F.B. The Basics of Item Response Theory. ERIC Clearinghouse on Assessment and Evaluation / F.B. Baker. – University of Visconsin : ERIC Publications, 2001. – 186 р. 48. Ким, В.С. Анализ результатов тестирования в процессе Rasch measurement, / В.С. Ким // Педагогические измерения. – 2005. – №4. – С.39-45. 49. Smith, E.V., Conrad, J.M., Chang, K., Piazza, J. An Introduction to Rasch Measurement for Scale Development and Person Assessment / E.V. Smith, J.M. Conrad, K. Chang J. Piazza // Journal of Nursing Measurement. – 2002. – №10. – Р. 189-206. 50. RUMM [Electronic Resource]. – Mode of access : URL : http://www.rummlab.com.au./– Title from the screen. 51. Birnbaum, A. Some Latent Trait Models and Their Use in Inferring and Examinee's Ability. / A. Birnbaum // In Lord F.M., Novick M. Statistical Theories of Mental Test Scores. Addison-Wesley Publ. Co. Reading, Mass, 1968. – P.397-479. 52. Educational Measurement: Third Edition. [Ed. by Linn R.L.]. – N.-Y. : Macmillan Publishing Co., 1989. – 610 р. 53. Васильев В. И., Тягунова Т. Н. Основы культуры адаптивного тес- тирования. / В. И. Васильев, Тягунова. – М.: ИКАР, 2003. – 580с. 54. Moodle.org: open-source community-based tools for learning [Electronic Resource]. – Mode of access : URL : http://moodle.org./– Title from the screen.. 55. ILIAS E-Learning [Electronic Resource]. – Mode of access : URL : http://www.ilias.de./– Title from the screen. 56. Кривицкий, Б.Х. К вопросу о компьютерных программах учебно- го контроля знаний / Б.Х. Кривицкий // Educational Technology & Society. – 2004. – №7(2). – с.158-169. 57. Hot Potatoes Half-Baked Software [Electronic Resource]. – Mode of access : URL : http://hotpot.uvic.ca/, http://web.uvic.ca/hrd/hotpot/ register.htm./– Title from the screen
My Test.