Ostatnie lata przyniosły prawdziwą rewolucję w sposobie, w jaki badamy umiejętności dzieci. Coraz częściej korzystamy z metod zdalnych, co zyskało na znaczeniu zwłaszcza w czasie pandemii COVID-19. Badania prowadzone online pozwalają naukowcom docierać do grup, które wcześniej były trudno dostępne, a także zbierać dane od większej liczby uczestników. Jednak czy testy przeprowadzane zdalnie mogą być tak samo wiarygodne, jak te prowadzone twarzą w twarz?
Badania teoretyczne sugerują, że bezpośredni kontakt fizyczny oferuje bogatsze doświadczenie komunikacyjne. Brak tej fizycznej obecności w testach online może wpłynąć na zachowanie i wyniki dzieci, szczególnie tych, które dopiero rozwijają swoje umiejętności komunikacyjne i rozpoznawania emocji. W naszym badaniu przyglądaliśmy się tym różnicom, porównując wyniki testów przeprowadzanych zdalnie i bezpośrednio.
Aby odpowiedzieć na to pytanie, przeprowadziliśmy badanie z udziałem 148 dzieci – zarówno jednojęzycznych, jak i wielojęzycznych – które miało na celu porównanie wyników testów językowych przeprowadzonych online i na żywo.
Spotkaliśmy się z dziećmi dwukrotnie: raz w formie zdalnej, a raz bezpośrednio, w obecności badaczki. Aby sprawdzić, czy kolejność wykonywania zadań ma znaczenie, podzieliliśmy uczestników na dwie grupy. Pierwsza grupa, składająca się z połowy badanych dzieci, najpierw przeszła test online, a dwa tygodnie później przystąpiła do testu bezpośredniego (na żywo). Druga wykonała te zadania w odwrotnej kolejności – najpierw na żywo, a potem — po dwóch tygodniach — online.
Wyniki naszego badania pokazały istotne różnice między wynikami testów online a tymi przeprowadzanymi na żywo. Dzieci wielojęzyczne, które najpierw przystąpiły do testów online, uzyskały niższe wyniki w tej formie testowania, podczas gdy wyniki testów przeprowadzanych bezpośrednio były wyraźnie lepsze. Co ciekawe, w grupie, która najpierw wykonywała zadania na żywo, wyniki były lepsze w przypadku testów online, choć różnice te były mniej wyraźne. Mówiąc inaczej, dzieci wielojęzyczne na ogół radziły sobie lepiej w drugim podejściu, niezależnie od tego, czy było to testowanie online, czy twarzą w twarz. Sugeruje to, że może występować efekt uczenia się lub adaptacji, gdzie dzieci po prostu stają się bardziej zaznajomione z zadaniem przy drugim podejściu.
Z kolei w grupie dzieci jednojęzycznych wyniki testów przeprowadzanych na żywo były generalnie wyższe, niezależnie od kolejności, w jakiej dzieci przystąpiły do testów. Wyniki te sugerują, że dzieci jednojęzyczne czują się bardziej komfortowo w tradycyjnych warunkach testowania, co może wynikać z większego poczucia bezpieczeństwa i jasności, które zapewnia fizyczna obecność badacza.
Badanie to podkreśla, że testy online, mimo że są wygodne i dostępne, nie są w pełni równoważne z testami przeprowadzanymi na żywo. Choć oba typy testów mają swoje zalety, nie możemy ich traktować jako w pełni zamiennych.
Warto również zaznaczyć, że testowanie online, przy odpowiednim przygotowaniu i właściwej interpretacji wyników, może być niezwykle cennym narzędziem badawczym.
Zadania powtarzania zdań (SRep - sentence repetition tasks) stanowią jedno z najczęściej stosowanych narzędzi w ocenie rozwoju językowego dzieci. Polegają one na tym, że uczestnik badania słucha zdań prezentowanych pojedynczo i powtarza je dokładnie tak, jak zostały wypowiedziane. Choć pozornie proste, zadania te wymagają złożonych procesów poznawczych i językowych, szczególnie gdy struktury składniowe są skomplikowane.
Kałowski i współpracownicy (2025) przeprowadzili systematyczny przegląd literatury anglojęzycznej dotyczącej wykorzystania zadań SRep w badaniach nad rozwojem językowym dzieci dwujęzycznych z zaburzeniami i bez zaburzeń językowych. Przegląd przeprowadzono zgodnie z wytycznymi PRISMA 2020, przeszukując bazy Scopus, EBSCO i PubMed. Ostatecznie przeanalizowano 774 publikacje, z których 141 spełniało kryteria włączenia.
Najwcześniejsza zidentyfikowana publikacja to Clay (1971), która wykorzystała zadanie SRep jako miarę przyswajania języka w kontekście szkolnym. Tylko 11 publikacji zostało zidentyfikowanych w okresie 1971-2009. Publikacja Marinisa i Armon-Lotem (2015) dotycząca zadań SRep stworzonych w ramach Akcji COST IS0804 może być uznana za wpływowy punkt zwrotny - cytowana 210 razy według Google Scholar w czasie pisania artykułu.
Spośród 141 badań w przeglądzie systematycznym, 60 (42,55%) wykorzystywało zadania SRep dla dwóch lub więcej języków w ramach jednego badania. Najpopularniejszym badanym językiem był angielski (n=62), następnie hiszpański (n=27), prawdopodobnie odzwierciedlając dominację kontekstu amerykańskiego (tj. dzieci dwujęzycznych hiszpańsko-angielskich) pod względem publikacji. Popularne języki badań obejmowały również niemiecki (n=20), hebrajski (n=16), francuski (n=16), rosyjski (n=13), grecki (n=8) i turecki (n=6).
Zidentyfikowaliśmy 110 (78,01%) wzmianek o standaryzowanych zadaniach SRep i 50 (35,46%) wzmianek o tworzeniu nowego zadania SRep przez autorów specjalnie na potrzeby badania. Rozwiązania wahały się od używania opublikowanych zadań, używania podtestów SRep z większych baterii językowych, tłumaczenia istniejących zadań na inne języki, lub projektowania zadań SRep od podstaw.
Liczba pozycji zawartych w zadaniach SRep została określona w 104 badaniach (73,75%). Najkrótsze zgłoszone zadanie SRep składało się z trzech pozycji, podczas gdy najdłuższe zawierało 68 zdań. Średnia długość zadań SRep wynosiła 32,26 (SD=15,29), z modą wynosząca 30.
Obecność pozycji treningowych została określona w 45 badaniach (31,91%). Pozostałe 93 (65,95%) badania albo nie używały pozycji treningowych SRep, albo robiły to, ale tego nie raportowały.
W analizowanej bazie danych 64 badania (45,39%) - największa proporcja - nie określiły, czy komputer został użyty do administrowania zadania SRep. Dwadzieścia dwa badania (15,60%) raportowały informacje określające, że zadanie SRep było administrowane osobiście. Wreszcie, 52 badania (36,87%) jasno określiły użycie skomputeryzowanej wersji zadania SRep.
Czterdzieści osiem (34,04%) badań nie raportowało jasno, czy zdania w zadaniu SRep były nagrane wcześniej i odtwarzane, czy były czytane na głos. 30 badań (21,27%) używało pozycji SRep, które były czytane na głos, podczas gdy 60 badań (42,55%) raportowało użycie nagranych wcześniej pozycji, czyniąc to najczęstszym wyborem w badanej bazie danych.
Dwadzieścia siedem badań (19,14%) raportowało użycie jakiejkolwiek formy bodźców wizualnych w zadaniu SRep. Natura tych bodźców była zróżnicowana. Trzydzieści cztery badania (24,11%) określiły administrowanie zadania SRep przez prezentację PowerPoint.
Badania w analizowanej bazie różniły się pod względem stosowanych systemów punktacji. Spośród przeanalizowanych badań, 36 badań (25,53%) raportowało używanie więcej niż jednego systemu punktacji. Dwudziestu troje badań (16,31%) nie miało jasno zidentyfikowanego systemu punktacji, chociaż wyniki zadań SRep były raportowane. Punktacja binarna oparta na identycznych powtórzeniach była najpopularniejsza, raportowana w 44 badaniach (31,20%). Punktacja binarna oparta na powtarzaniu struktury docelowej była druga pod względem popularności, raportowana w 31 badaniach (21,98%).
Prawdopodobnie najbardziej znaczący obszar różnic dotyczy skomputeryzowanych kontra analogowych wersji zadania SRep. Choć intencja uczynienia zadania SRep bardziej angażującym dla dzieci w ten sposób jest przekonująca, rozwiązanie to może potencjalnie wprowadzać niepożądaną zmienność. Dostępne dowody porównujące te wersje zadań są niejednoznaczne (Banasik-Jemielniak i współpracownicy, 2023; Pratt i współpracownicy, 2022). Dlatego potrzebne są bardziej specyficzne badania do testowania tych założeń.
Dla każdej formalnej cechy SRep (z wyjątkiem języka zadania), którą autorzy rozważali, byli w stanie zidentyfikować podzbiór badań, w których odpowiednio jasne informacje na ten temat nie były raportowane. Dotyczy to zarówno cech, które mogą być uznane za relatywnie mniej ważne, jak i istotnych, podstawowych informacji, takich jak długość zadania w zdaniach.
Sugerujemy, aby badania wykorzystujące zadania SRep bezpośrednio raportowały przynajmniej następujące elementy:
Język zadania SRep
Pochodzenie zadania SRep: bateria testów, opublikowane zadanie, zadanie stworzone przez autora zgodnie z wytycznymi Akcji COST IS0804
Długość zadania SRep, obecność i liczba pozycji treningowych
Gamifikowana komputeryzacja lub administracja osobista
Użycie nagranych wcześniej kontra żywych zdań
Informacje zwrotne przekazywane dzieciom
System punktacji
Surowe wyniki SRep (średnie lub procenty)
Główne ograniczenie przeglądu systematycznego to jego zakres. Autorzy skupili się tylko na publikacjach anglojęzycznych, które zawierały badania nad rozwojem językowym dzieci dwujęzycznych. Jednak zadania SRep mogą być używane w wielu różnych kontekstach, zarówno podstawowych, jak i stosowanych.
Dalsze badania są potrzebne do przetestowania tej sugestii. Badania te powinny obejmować zarówno bezpośrednie porównania, jak i meta-analizy wyodrębnionych, odpowiednio opisanych danych SRep.
Nasz przegląd systematyczny rzuca światło na zróżnicowane wykorzystanie i raportowanie zadań SRep w badaniach nad dziećmi dwujęzycznymi. Nie tylko demonstruje szeroki zakres metodologii, ale także identyfikuje obszary, w których niespójności w projektowaniu zadań i raportowaniu mogą potencjalnie wpływać na interpretację wyników badań. Przegląd podkreśla potrzebę jaśniejszych standardów raportowania w tej dziedzinie.