全国学力・学習状況調査(通称、全国学力テスト)は、対象となる全員を調査する調査方法(いわゆる悉皆調査)で実施されていますが、その問題点について整理しておきます。
悉皆調査の問題点はいろいろありますが、ここでは、(1)費用・手間、(2)測定精度、(3)学校の役に立たないという3点について見てみます。
費用・手間
全国学力テストは、2014年度時点では小学6年生と中学3年生を対象にした、ペーパーテストです。
少子化と言われていますが、それでも日本の小学6年生・中学6年生の人数は、それぞれ100万人はいます。これは、統計局のホームページ等を見れば確認できます。
ここで問題になるのは、悉皆調査にすると、対象となる200万人全員にテストを配布しなければならないという点です。
今のところ、全国学力テストは国語・算数(数学)・理科・学習状況調査の4点セットで構成されていますから、仮に1人の調査用紙の印刷・製本に100円かかるとすると、それだけで100円×200万で2億円かかります。
回収したテストの採点・入力時間も馬鹿になりません。仮に1人のテストの採点と入力に20分かかるとすると、入力・採点作業に全部で20分×200万=4000万分かかります。1000人で作業にとりかかったとしても、1人あたりのノルマは4万分(約28日。ただし徹夜)です。
全国学力調査は結果が返却されるのが遅いと言われますが(4月に実施して返却されるのは8月頃)、悉皆調査ではやむを得ないでしょう・・・。
なお、採点にアルバイトを雇っているとしたら、4000万÷60分≒約66万時間分の人件費が発生します。時給800円だったとしても、800×66万で約5億円です。
ついでに言うと、ここまでの作業では、採点・入力ミスのチェックは一切やっていません。チェックをすれば、作業量は少なく見積もっても2倍になります。採点・入力時間と人件費がさらに倍(56日徹夜で、約10億円)ということですね。
PISAやTIMSSといった標本調査では、日本の場合、だいたい6000人程度を対象にしています。これなら、印刷・製本代は100円×6000=60万円、入力・採点作業は20分×6000=120000分=2000時間(100人でやったとすれば、一人あたりのノルマは20時間)と、かなり現実的な数値に収まります。
測定精度
学力調査を悉皆調査で実施することの問題点は、測定精度が下がるという点です。全員を調査するのだから正確に測れるのではないか?と思うかもしれませんが、そんなことはありません。
これは、次のように考えればわかります。
もし、あなたが小学6年生の算数の学力を測るとして、調査問題は何問くらい用意しますか?
10問でいいですか?まさか!少なすぎるでしょう。小学校教育6年間の集大成を、たった10問で測って良いわけがありません。少なくとも1教科につき100問くらいは用意したいところです。
問題数が少なくてもいいじゃないかと思うかもしれませんが、出題数が少ないということは、日本の子どもたちの得意なこと・不得意なことが正確に測れないということを意味します。
残念なことに、悉皆調査はすべての子どもが同じ問題を解かなければなりませんから、問題数を増やすことができません。もし1教科につき100問も出題したら、テストに何日かかるかわかりませんからね。
要するに、悉皆で学力調査を実施すると、出題数が限られてしまい、国全体で見た時の測定精度が大きく下がってしまうのです。
実際、2014年度の全国学力テストの報告書を見ると、もっとも多い中学校の数学Aですら36問しかありません。問題数の少ない中学校の国語Bはわずか9問です。これで、日本の子どもたちの成績を正確に測れるとはちょっと思えません。
要するに、全国学力テストは、毎年何十億円もかけて学力調査をしているのに、日本の子どもたちの得意な分野・不得意な分野がよくわからないという残念な結果になっているわけです。
学校別平均点は信頼に足る値なのか?
NHKの時論・公論などでも取り上げられていますが、個々の学校の全国学力テストの点数を公表するべきだと言う人がいます。
しかし、現在の全国学力テストの学校別平均点は、まったく信頼できる値ではありません。
第一に、すでに述べたように全国学力テストは出題できる問題の数が少なくなりがちです。そのため、学校別の平均点も、たまたま子どもが得意/不得意な問題が多かったという要因に左右されやすく、信頼できる値になりません。
第二に、小規模校が増えている昨今、男女の数が偏っている学校は少なくありません。1学年30人程度の学校の場合、男子20人に対し、女子10人ということも普通にありえます。
ここで問題になるのは、国語・読解の成績は、男子より女子のほうが高い傾向があるという点です。なぜか全国学力テストでは男女別の平均点が公表されていませんが、おそらく女子のほうが高いでしょう。
つまり、全国学力テストの学校別平均点(とくに国語)は、たまたま女子が多かったというだけで高くなり、男子が多かったというだけで低くなってしまうのです。
こんな数値を公開して、何の参考になるんでしょうね。
学校の役に立たない
「全国学力テストの結果をもとに、学校の指導を改善しよう」という涙ぐましい努力をしている学校や教育委員会は少なくありません。
しかし残念なことに、現在の全国学力テストは、個々の学校で活用できるような設計にはなっていません。
そもそも、学校に返却された全国学力テストの結果には、個人名が含まれていません。(おそらくプライバシーの保護という理由から)削られているのです。
これでは、どのテスト結果が誰のものなのかわかりません。どれが誰の結果かわからないのに、どうやって日々の指導に活かすのでしょう?
もちろん、個々の学校には番号と氏名の対応表が(たぶん)残されているので、氏名を復元することは不可能ではありません。しかし、ただでさえ多忙と言われる学校の先生に、そんなことをする余裕があるんでしょうか・・・。
調査の観点から見ると
一人ひとりのテストの点数には、その子の本来の能力だけでなく、さまざまな誤差(偶然その子が出題された問題が得意だったとか、その日体調が良かったとか)が含まれています。
そのため、調査をするときは、できるだけ多くの人にテストを受けてもらうことで、この誤差を消そうとします。調査対象となる人が多ければ、個々の得意/不得意や、体調が良い/悪いといった誤差が相殺されるはずだ、という発想です。
たとえば、朝ごはんを食べた2人(50点)と食べていない2人(80点)の点数を比べて、朝ごはんを食べないほうがよいのだ!なんて主張する人がいたらオカシイと思いますよね。
いくら何でも人数が少なすぎます。せめて、朝ごはんを食べた人10人と、食べてない人10人を比べたいところです。
ここで問題になるのは、最近は一学年が20人もいない小規模校が増えているという点です。こういう学校では、誤差を相殺することができるほど人数がいませんから、調査結果をまともに分析することができません。
厄介なことに、複数の要素を組み合わせると、分析に必要な人数は加速度的に増えていきます。
ご飯+男女であれば、ご飯を食べた男子10人/食べてない男子10人/食べた女子10人/食べてない女子10人というふうに、全部で40人必要です。この例ではキレイに10人ずつに分かれていますが、実際にはここまでうまくいきませんから、まともな分析をするためには、最低でも100人程度は欲しいところです。
1学年に100人を超える子どもがいる学校は、それほど多くありません。要するに、個々の学校では、学力テストと学習状況調査を組み合わせた分析は、ほとんどできないのです。
何のために悉皆調査をやっているんでしょうね・・・。
参考図書
全国学力テストについては、他にもいろいろ言いたいことがありますが、今回は比較的わかりやすい問題点に絞って整理してみました。
なお、全国学力テストの問題点については、次のような調査・測定の基本について書いた本を読むとよく理解できます。ここでは、おすすめ本をいくつか挙げておきます。
大谷・木下・後藤・小松, 2013, 『新・社会調査へのアプローチ』ミネルヴァ書房
轟・杉野, 2013, 『入門・社会調査法』法律文化社
上記2冊は、社会調査の本です。どちらも良書ですから、好きな方を読めばよいでしょう。
日本テスト学会, 2007, 『テスト・スタンダード―日本のテストの将来に向けて』金子書房
日本テスト学会, 2010, 『見直そう、テストを支える基本の技術と教育』金子書房
上記2冊は、日本テスト学会というテスト設計を専門にする学会が出版した書籍です。初学者にも比較的わかりやすいので、どちらか一冊を読めばよいと思います。
英語が読めるのであれば、難易度は高いですが、PISAのData Analysis Manualがとても参考になります。
ある程度の統計の知識も必要ですが、学力調査の設計に必要な最低限の知識が、わかりやすくまとめられています。SPSSやSASが使えるのであれば、分析技法の勉強にもなって一石二鳥です。