Главная страница
Навигация по странице:

  • Апробация анкет, сопровождающих тестирование учащихся

  • 7. Заключение

  • Диагностика учебной успешности в начальной школе. П. Г. Нежнова, И. Д. Фрумина, Б. И. Хасана, Б. Д. Эльконина. М. Открытытй институт Развивающее


    Скачать 1.6 Mb.
    НазваниеП. Г. Нежнова, И. Д. Фрумина, Б. И. Хасана, Б. Д. Эльконина. М. Открытытй институт Развивающее
    Дата07.08.2020
    Размер1.6 Mb.
    Формат файлаpdf
    Имя файлаДиагностика учебной успешности в начальной школе.pdf
    ТипКнига
    #135303
    страница14 из 17
    1   ...   9   10   11   12   13   14   15   16   17
    «Что отражает оценка, которую Вы ставите ученику?». К вопросу предлагается семь вариантов ответов:
    _ его реальные знания на данный момент
    _ его активность на уроке
    _ его успешность по сравнению с другими учениками в классе
    _ его способность самостоятельно мыслить
    _ его умение работать вместе с другими детьми
    _ его продвижение ( успехи по сравнению с прежними результатами)
    _ его аккуратность и умение организовать свою работу
    Эти варианты требуется проранжировать по степени значимости: от 1 – самому важному до 7 – самому несущественному. В анкете для родителей этот вопрос формулируется следующим образом: «Как вы думаете, чему больше соответствуют оценки, которые получает ваш ребенок в школе?». В анкете для администрации выясняется установка школы по поводу оценок: «Что, по Вашему мнению, должна отражать оценка, которую Ваши педагоги ставят ученику в начальной школе?». Наконец, самих учащихся вопрос сформулирован проще, и детей просят выбрать из списка альтернатив три ответа, которые больше подходят.
    Разработанную для младших школьников анкету мы сопоставили с анкетой для учащихся, используемой в рамках теста PISA, и убедились, что в нашей анкете представлены все тематизмы, получившие статистическое подтверждение своей различительной значимости в процессе апробации PISA. Однако, при всей тематической близости мы сознательно использовали другие форму и тип вопросов, исходя из соображений возрастной адекватности (понятности вопроса и простоты ответа, ориентированной на младшего школьника), а также целевой доминанты вопроса: для нас важно было не просто получить информацию о формальном наличии какого-либо культурного объекта в среде ребенка, но о его включенности в детскую активность. Так, вопрос «Сколько книг в вашем доме?», безусловно имея отношение к характеристикам культурно-образовательной среды ребенка, кажется нам неприемлемым, т.к. не позволяет выявить, побуждает ли данная вещь активность или отношение ребенка к ней. Поэтому в нашей анкете для получения информации в рамках этого тематизма используется вопрос в форме «Сколько времени в день ты тратишь на следующие занятия? (… в частности, чтение)».
    Анкета является относительно надежным и удобным средством получения фактической информации (в частности, социологической). Однако, когда на анкету возлагаются задачи получения субъективно-значимой информации или информации оценочного характера, то сразу возникает вопрос о достоверности и надежности полученных результатов. Для решения этой проблемы мы использовали сразу несколько приемов.

    91
    Во-первых, для большинства вопросов, касающихся качеств образовательной среды школы, мы ввели количественные ограничения: если упоминания о той или иной характеристике образовательной среды представлено менее, чем в Х% (для разных вопросов этот процент различается) анкет учащихся обследованного класса или учителей одной школы, то эта характеристика не рассматривается как достоверно представленная.
    Во-вторых, для большинства характеристик образовательной среды вопросы, ответы на которые являются по сути оценочными, сформулированы нами как фактические, или в них специально смещен акцент с самого выявляемого факта на форму его проявления или его временные рамки. Например, для выяснения того, насколько ребенок проявляет собственную инициативу и активность в общении с педагогом или одноклассниками, мы задаем вопрос в следующей форме: «Как часто на уроке тызадаешь учителю вопрос, если тебе что-то непонятно?» или «Как часто на уроке тыспоришь с ребятами, отстаивая свою точку зрения?».
    В-третьих, мы полагаем, что наиболее адекватным способом решения проблемы надежности в условиях нашей задачи является содержательное пересечение тем и типов вопросов в анкетах, составленных для разных субъектов культурно-образовательной среды младшего школьника: учителей, родителей и школьной администрации. Такое пересечение может позволить, с одной стороны, повысить надежность полученных данных, а с другой, что не менее важно, получить более полную и всестороннюю картину образовательной среды ребенка и характерных для нее форм детской активности.
    Таким образом, круг лиц - участников анкетирования - определен нами исходя из содержательных представлений о факторах становления способностей ребенка, значимо влияющих на тестовые результаты. Причем главными источниками информации для нас являются сами учащиеся и педагоги школы, а дополнительную информацию мы получаем из анкет, заполняемых родителями и школьной администрацией. Как уже отмечалось, частично тематизмы этих анкет пересекаются. Это позволяет не только повысить надежность собранных данных, но и определить степень включенности разных субъектов в образовательный процесс и меру заинтересованности в его качестве. Однако у каждой анкеты есть и свое собственное целевое назначение. Очевидно, что только родители могут сообщить о той культурно-образовательной активности, в которую они включают своих детей вне школы. Или только школьная администрация может определить, какими средствами школа решает свои образовательные задачи и какие приемы и средства для этого привлекает.
    Апробация анкет, сопровождающих тестирование учащихся
    В процессе разработки анкет, сопровождающих тестирование, нами было проведено два этапа апробации. На первом этапе проверке подлежали такие характеристики анкет, как их понятность и доступность для заполнения респондентами, четкость и однозначность формулировок, а также время, необходимое для заполнения. На втором этапе проводился количественный и качественный анализ ответов респондентов с целью выявления характеристик культурно-образовательной среды, различающих успешные и неуспешные по результатам тестирования школы. При этом основное внимание было сосредоточено на анкете для наших главных респондентов – учащихся (анкета приведена полностью в конце данного раздела).
    В рамках первого этапа эта анкета была апробирована в двух пятых и трех четвертых классах общеобразовательной школы.
    Все учащиеся справились с вопросами анкеты в течение одного урока. Однако к концу работы у некоторых детей (приблизительно у 25% класса) наблюдалось явное утомление. Они пропускали инструкцию (выбирали не то количество альтернатив, которое указано для данного вопроса), допускали ошибки при заполнении (на последних страницах анкеты больше исправлений, чем на первых), жаловались на длинные таблицы.

    92
    Кроме того, в ходе работы с анкетой дети задавали экспериментатору много вопросов, которые можно разделить на две группы:
    1) вопросы, касающиеся технической стороны заполнения анкеты
    2) содержательные вопросы, касающиеся уточнения формулировок или выбора альтернатив ответов
    Приведем примеры.
    Вопросы первой группы: А можно обводить ответ? (А можно зачеркивать то, что не подходит?). А как сделать, если отметил не то?
    Вопросы второй группы: Что такое «живой уголок?». «Завуч» - это кто? Если я пришла в подготовительный, то с какого класса я учусь в этой школе? Что отвечать, если нам не ставят отметок? Что такое «регулярно»?
    После заполнения анкет была проведена беседа с учащимися, направленная на выявление их общего отношения к анкетированию и уточнение проблем и трудностей, возникавших в ходе работы с текстом анкеты. Беседа, в которой младшие школьники выступали в качестве экспертов, позволила зафиксировать несколько позиций, признанных большинством участников. Так, оказалось, что детям удобнее отвечать на вопросы по теме, чем выбирать суждения, соответствующие их точке зрения по этой теме.
    Также выяснилось, что вопросы, сформулированные во втором лице, предпочтительнее сформулированных от первого лица. Наконец, когда вопрос представлен в табличной форме, то учащиеся быстро забывают контекст, заданный в заголовке таблицы, т.е. теряют смысловой фон вопросов.
    Анализ полученных от детей вопросов и замечаний позволил нам скорректировать текст анкеты. Замечания, касающиеся технической стороны заполнения анкеты, заставили нас в ряде случаев заменить табличную форму на последовательный ряд конкретных суждений.
    На втором этапе предметом апробации выступили дискриминационные возможности анкет, т.е. их чувствительность к тем факторам образовательной среды, которые влияют на эффективность учащихся в решении тестовых задач. Для проведения пилотного анализа мы выбрали среди всех школ, участвовавших в тестировании, две группы по четыре школы в каждой: в первую группу вошли школы, в которых дети продемонстрировали высокие результаты в основных тестах, во вторую - школы, в которых дети продемонстрировали относительно низкие результаты.
    Ниже описаны некоторые различия, проявившиеся в ответах на вопросы «Анкеты для учащихся» (см. Приложение 3), в этих двух группах школ.
    В школах, где дети продемонстрировали высокие результаты в основных тестах
    (далее будем их называть «сильными»), в ответе на вопрос 2 («Напиши, какие традиции есть в твоей школе?»), получен большой список разных традиций. Они указаны в произвольном порядке, списки не полностью повторяются. Учащиеся по-разному формулируют название или суть мероприятия, которое причисляют к традициям школы.
    В школах, где дети продемонстрировали относительно низкие результаты (далее будем называть их условно «слабыми»), в анкетах они также перечислили много разных школьных традиций. При этом списки полностью совпадают как количественно, так и в последовательности перечисления. В большинстве анкет совпадают даже допущенные при перечислении ошибки. Можно предположить, что ответ на этот вопрос писался под диктовку, а сами учащиеся не знали, что ответить.
    Показателен пункт 5 в вопросе №4: «В вашей школе много правил, которые должны выполнять все ученики?». В «сильных» школах получено 82% негативных ответов на этот вопрос. В «слабых» школах – от 90% до 100% всех детей ответили на этот вопрос положительно.

    93
    Остановимся на пунктах 3, 5, 6 и 7 вопроса №7. В этом вопросе описываются различные ситуации, возникающие на уроке. Пункты 3 и 6 связаны с эмоциональным состоянием ребенка на уроке и сформулированы следующим образом: «Как часто на уроке ты чувствуешь себя спокойно?» и «Как часто на уроке ты боишься, что тебя спросят?». Пункты 5 и 7 определяют, на кого ориентирована учебная коммуникация ребенка на уроке. Они сформулированы следующим образом: «Как часто на уроке ты задаешь учителю вопрос, если тебе что-то непонятно?» и «Как часто на уроке ты споришь с ребятами, отстаивая свою точку зрения?». И в «сильных», и в «слабых» школах учащиеся утверждают, что в абсолютном большинстве чувствуют себя на уроках спокойно (88-91%). При этом в «сильных» школах 82% детей не боятся, что их спросят. А в «слабых» школах только 25% детей никогда не боится, что их спросят, а остальные 75% либо иногда опасаются, либо боятся часто или всегда (по 20%). Очевидно, что этот ответ вступает в противоречие с пунктом 3.
    Совершенно различно распределяются коммуникативные процессы на уроках в
    «сильных» и «слабых» школах. Если в «сильных» школах почти 95% учащихся отмечают, что редко обращаются к учителю, но при этом все спорят между собой (причем
    82% делает это часто), то в «слабых» школах учебная коммуникация строится по-иному: до 50% детей часто обращается к учителю с вопросами и остальные 50% - редко. А часто спорят с одноклассниками менее 24% учащихся, еще 57% делает это редко и около 15% детей никогда не вступает в дискуссию с одноклассниками.
    Важные моменты, характеризующие содержательную коммуникацию на уроке, представлены в шести пунктах вопроса №8. Вопрос сформулирован следующим образом:
    «Как часто на уроках ваши учителя:
    - дают вам задания, и вы их молча выполняете?
    - снижают отметку за небрежное оформление работы?
    - задают вам вопросы для обсуждения всем классом?
    - снижают отметку за плохое поведение?
    - шутят?
    - отвечают на ваши вопросы?
    Ответы детей из «сильных» и «слабых» школ позволяют выявить различные содержательные акценты, которые делают учителя этих школ в организации взаимодействия с учащимися на уроке. Так, в пункте 1 дети из «слабых» школ видят очень знакомую ситуацию и отвечают «всегда» в 81% анкет (остальные 19% говорят «часто»). В
    «сильных» школах такая организация работы также принята, но ответ «всегда» дают менее 23% детей, еще 63% говорит «часто» и еще 13% считает, что такая форма работы используется учителями редко. Также о содержательных характеристиках организации взаимодействия на уроке говорят пункты 3 и 6. Ответы на пункт 3 в наших школах различаются степенью убежденности детей: если в «слабых» школах учащиеся выбирают ответ «всегда» лишь в 9% анкет, а остальные 91% говорит «часто», то в «сильных» школах ответы «всегда» и «часто» распределились в соотношении 41 и 59%. Т.е., почти половина учащихся «сильных» школ воспринимает такую форму работы как обязательную. Иная картина ответов представлена в пункте 6. По единодушному мнению детей из «сильных» школ учителя всегда отвечают на возникающие у них вопросы (96% ответов, и 4% - «часто»). В «слабых» школах также большинство учащихся выбирает ответ «всегда» - 61%, еще 23% считают, что это происходит часто, но есть и группа учащихся, которые не получают от учителей ответов на свои вопросы (они дали в анкете ответы «редко» и «никогда»).
    Два пункта вопроса №8 касаются отметок (пункты 2 и 4). И здесь мы также видим существенные различия в полученных ответах учащихся. В «сильных» школах более 86% детей утверждают, что учителя либо вообще не снижают, либо редко снижают отметку за небрежное оформление работы. С ними согласны лишь 14% детей из «слабых» школ. А

    94 остальные 86% считают, что это нормальная практика оценивания (ответы «часто» и
    «всегда»). Что касается снижения отметки за поведение, то и в «сильных», и в «слабых» школах это не распространенная практика, с той лишь разницей, что в «слабых» школах все же присутствует некоторое количество детей (около 10%), которые считают, что такое имеет место в их школе, в то время как в «сильных» школах таких учащихся нет. Таким образом, ответы на этот вопрос позволяют реконструировать некоторые содержательные особенности организации учебной коммуникации, различающие школы, продемонстрировавшие высокие и низкие результаты в тестовых задачах.
    Также показательны ответы на вопрос 11, в котором представлены различные ситуации на уроке, предполагающие совместную работу детей, как содержательную
    (пункты 1, 2 и 4), так и контрольно-оценочную (пункты 3 и 5). Вопрос сформулирован следующим образом: «Как часто вы используете на уроках следующие формы работы?

    обсуждаете всем классом новый материал?

    решаете задачи, разделившись на группы?

    проверяете работу друг друга?

    совместно ставите опыты и эксперименты ?

    оценивает работу друг друга?
    К каждому пункту вопроса для ответа предлагается выбор из четырех альтернатив: всегда/ часто/ редко/ никогда.
    В «сильных» школах учащиеся ко всем пяти пунктам вопроса выбирают в качестве ответа только варианты «всегда» или «часто». Причем в первом пункте ответ «всегда» представлен почти в 90% анкет.
    В «слабых» школах внутри классов получены удивительно противоречивые ответы на отдельные пункты этого вопроса, а также присутствуют явные противоречия и между пунктами. Так, в одном из классов на первый пункт вопроса 57% детей выбрали альтернативу «всегда», а более 28% - «никогда» или «редко». Т.е. чуть больше половины учащихся «обсуждает всем классом новый материал», а более четверти класса этого никогда не видели и не участвовали в обсуждении. Другое важное несоответствие проявилось между пунктами проверки и оценки работ друг друга. По мнению абсолютного большинства детей взаимные проверки происходят «редко» или «никогда», а оценивание чужой работы – «часто» (у 67% детей). Можно предположить, что если оценка не связана с анализом и проверкой, то она скорее всего носит формальный характер и ориентирована на учительские критерии.
    Чтобы уточнить ситуацию с оценочной деятельностью, мы сопоставили ответы детей на пункт 5 вопроса 11 с ответами на вопрос №10. Он сформулирован следующим образом: «Как ты думаешь, оценка, которую тебе ставит учитель, больше соответствует твоим знаниям на данный момент:

    твоим успехам по сравнению с прежними результатами?

    твоей активности на уроке?

    ее отношению к тебе?

    твоему умению работать вместе с другими учениками?

    твоему умению организовать свою работу на уроке?

    твоим успехам по сравнению с другими учениками?
    Учащиеся должны в качестве ответа выбрать не более трех из семи предложенных вариантов. Это, безусловно, содержательно трудный вопрос. И в «сильных», и в «слабых» школах первое место в рейтинге ответов заняла альтернатива №1 («знаниям на данный момент»), второе – альтернатива №3 («активности на уроке»). Однако остальные оценки получили совершенно различное распределение в «сильных» и «слабых» школах. Так, альтернатива №2 («успехи по сравнению с прежними результатами») в «сильных» школах стоит у учащихся на третьем месте по предпочтениям, а в «слабых» - на последнем. А альтернатива №4 («личное отношение педагога к ребенку»), практически не

    95 представленная в ответах детей из «сильных» школ (последнее место в рейтинге альтернатив), в ответах учащихся из «слабых» школ занимает высокое третье место.
    По другим вопросам анкеты для учащихся также выявляются достаточно четкие различия в ответах учащихся школ, продемонстрировавших высокие результаты в решении батареи тестовых задач, и учащихся школ, показавших низкие результаты в тестировании. Это в целом показывает, что разработанный нами инструментарий решает задачу дифференциации тех качеств образовательной среды, которые значимо определяют успешность учащихся в тестировании. Однако, безусловно, в дальнейшем требуется проведение более детализированной и статистически выверенной аналитической работы с результатами анкетирования учащихся. Также важно сопоставление полученной в детских анкетах информации с данными других субъектов образовательной среды.
    7. Заключение
    Разработка средств измерения и оценки образовательных результатов занимает видное место в актуальной педагогической тематике. Однако быстрое и во многом успешное прогрессирование данного направления, показателем которого могут служить набирающие глубину и размах международные мониторинговые исследования, не должно заслонять тот факт, что указанная проблема на сегодня решается, во-первых, преимущественно на эмпирических основаниях, а во-вторых, с заметным уклоном в количественную сторону вопроса.
    Такой подход имеет несомненные плюсы и диктуется самой практикой.
    Особенность современного этапа в деятельности образовательных систем состоит в необходимости «поспеть» за стремительными сдвигами в общественной жизни. В этой ситуации бега наперегонки со временем новаторский порыв в освоении горизонтов не может дожидаться результатов углубленных психолого-педагогических исследований.
    Свою несомненную продуктивность здесь демонстрирует оперативно действующая эмпирическая стратегия, опирающаяся на широкую экспертизу и математический аппарат статистики. Однако осваивая новые реалии и уходя вперед, практика постепенно отрывается от теории, и с какого-то момента ее дальнейшее продвижение становится все менее продуктивным, приводя к необходимости обновления системы содержательных качественных ориентиров.
    Так, новый педагогический объект который с завидным чутьем был выявлен практиками и задал вектор модернизации образовательных систем, на данный момент явно нуждается в более тщательном осмыслении. Слово «компетенция», взятое напрокат из обиходного словаря и безусловно сыгравшее важную роль на современном этапе развития образования, должно быть преобразовано в научное понятие, т.е. занять место в системной психолого-педагогической картине, чтобы выступить основой дальнейших шагов в определении современных образовательных целей и соответствующей системы педагогической диагностики.
    Попыткой продвинуться в этом направлении и стала наша работа в области оценки школьных достижений. Был очерчен теоретический подход к проблеме, намечен объект тестирования (учебно-предметные компетенции), определен его предмет (мера присвоения культурных средств и соответствующих им способов действия) и разработаны пробные образцы тестовых заданий, в которых количественный аспект показателей не подминал качественный. В ходе работы над этими образцами были сформулированы принципы построения тестовых материалов и уточнены критерии оценки их качества.
    Созданный в рамках проекта тестовый комплект носит экспериментальный характер и пока не полностью отвечает требованиям, предъявляемым к средствам измерения школьной успешности. В перспективе планируется несколько линий его доработки,

    96 связанных с дальнейшим повышением надежности и технологичности инструмента, а также проведение более тщательной апробации и всесторонней экспертизы.
    Вместе с тем можно констатировать, что поставленная нами задача создания инструментария содержательно-нормативной педагогической диагностики находится на пути к решению. При этом мы полагаем, что данная разработка удерживает существенный аспект компетентностного подхода, который воплощают прогрессивные тестовые инструменты международного употребления.
    Апробация показала, что разработанный трехуровневый измерительный инструмент вносит в картину результатов тестирования объемность, дающую важную фактическую информацию для учителя и администратора школы. Так, профили успешности, вскрывающие внутреннюю, скрытую динамику освоения детьми учебного материала, можно трактовать как одну из возможных конкретизаций широко употребляемого понятия «индивидуальной образовательной траектории». Как бы то ни было, но именно в
    «профильном» развороте, где персональные достижения учащихся обнаружили качественное разнообразие, акт присвоения культурного содержания выступил в своей индивидуализированной форме.
    Предлагаемая в работе система тестирования обладает достаточной гибкостью и потенциально предназначается как для итоговой констатации результатов образовательного процесса, так и для мониторинга прогресса учащихся на протяжении учебы в начальной школе. При этом результаты тестирования можно будет использовать как для оценки индивидуальной успешности учащихся, так и для определения групповых итогов обучения. В свою очередь, указанные возможности, позволяющие объективным образом и в существенных определениях фиксировать и рефлектировать педагогический опыт, представляют главное условие совершенствования образовательного процесса, т.е. его превращение в развивающееся образование.
    Важно отметить, что описанный подход к измерению школьной успешности оставляет возможности свертывания объемной картины результатов тестирования в точку, которой может быть приписано количественное значение. На данный момент мы не ставили перед собой задачу подбора или создания математического аппарата, позволяющего интегрировать результаты тестирования в балльной оценке: нас прежде всего интересовал вопрос отнесения этих результатов к нормативному качественному критерию (культурной норме). Однако интегральный взгляд на школьную успешность также важен, и при первой возможности мы обратимся к поиску соответствующего метода обработки данных. Одномерная характеристика, отнесенная к статистической норме, может оказаться удобной для решения некоторых управленческих задач и, возможно, окажется полезной в контексте аттестации школьных успехов. Кроме того, интегрирование получаемых результатов открыло бы перспективу их сопоставления с данными международных исследований, проводимых на той же выборке, а в итоге - возможность прогнозировать результаты международных срезов на основе использования собственного инструментария.
    Проблема применимости средств тестирования имеет еще один важный ракурс, как правило игнорируемый тестологами. А именно, применение тестового инструмента характеризуется еще тем, в каком отношении к нему находятся те, кто прямо или косвенно оказываются объектом измерения и оценки. Здесь следует прежде всего назвать учащихся, которые могут понимать, а могут не понимать, с каким инструментом они имеют дело и как это соотносится с акцентами их учебной практики. То же можно сказать об учителе и администраторе школы, которые могут представлять, а могут и не представлять, как устроен тест и чего им ожидать от очередного обследования.
    Напомним, что в обследованиях TIMSS, PIRLS и PISA ситуация для учителей была крайне неопределенной. Даже теперь, когда участие России в этих проектах насчитывает несколько лет, результаты очередного обследования ожидаются так, как ждут итогов розыгрыша лотереи. И в свете этого опыта отечественная разработка,

    97 основанная на заявленной модели образовательного процесса, обнаруживает определенные преимущества перед международными образцами. Так, учителя воспринимают ее как понятный инструмент организации образовательного процесса и, примерно представляя будущие результаты, не опасаются его, более того - заинтересованы в тестировании, поскольку могут осмысленно воспользоваться полученными данными.
    Что касается школьников, то весьма обнадеживающим представляется любопытный факт, касающийся реакции детей на уровневое представление учебного материала. Так, в одном из начальных классов учитель явным для детей образом ввел различение задач в соответствии с трехуровневой схемой и давал на дом задачи с обозначением их уровня, т.е. объективной трудности. Ответом на это было неожиданное для педагога резкое усиление у детей мотивации к решению задач и к занятию математикой вообще. Этот факт лишний раз свидетельствует о том, что любые моменты, обеспечивающие ориентацию ребенка в существенных условиях учебного процесса, выступают опорой для проявлений его субъектности и как следствие актуализируют дотоле скрытые источники мотивации к учению.
    Подводя итог, следует еще раз подчеркнуть, что на данный момент разработанная нами измерительная методика не является диагностической, а всего лишь несет в себе потенцию стать таковой. Так, ключевой вопрос - об определении принципов психолого- педагогической интерпретации получаемых профилей – остается пока практически не решенным. Очевидно, что ответ на него потребует обращения к проблеме становления компетенций в возрастном аспекте и проведения соответствующих психолого- педагогических исследований. Выступая средством объективной фиксации результатов исследовательской и педагогической деятельности, насыщаясь опытом этой деятельности, инструмент и получит реальную возможность превратиться в средство содержательно-нормативной диагностики.
    Литература
    Ахутин А.В. История принципов физического эксперимента. М., 1976
    Бахтин М.М. Эстетика словесного творчества. М., 1979
    Беспалько В.П. Образование и обучение с участием компьютеров (педагогика третьего тысячелетия). Москва–Воронеж, 2002
    Болотов В.А., Сериков В.В. Компетентностная модель: от идеи к образовательной программе // Педагогика. 2003 . № 10
    Бугрименко Е.А., Микулина Г.Г., Савельева О.В., Цукерман Г.А. Руководство по оценке качества математических и лингвистических знаний школьников. М., 1989
    Валлон А. Психическое развитие ребенка. М., 1967
    Венгер А.Л. и др. Программа «Развитие» (Основные положения). М., 1994
    Выготский Л.С. Собр. соч.: В 6 т. М., 1982–1984
    Гальперин П.Я. К исследованию интеллектуального развития ребенка // Вопросы психологии. 1969, № 1
    Гальперин П.Я. Психология как объективная наука. М., 1998
    Гузеев В.В. Планирование результатов образования и образовательная технология.
    М., 2001
    Гуружапов В.А. К вопросу о предметной диагностике теоретического мышления детей в развивающем обучении (система Д.Б.Эльконина – В.В.Давыдова) //
    Психологическая наука и образование. 1997. №4
    Давыдов В.В. Теория развивающего обучения. М., 1996
    Давыдов В.В., Андронов В.П. Психологические условия происхождения идеальных действий //Вопросы психологии, 1979, № 5

    98
    Дахин А.Н. Педагогический мониторинг: концепция и применение // Школьные технологии. 1997. № 3
    Дидактика средней школы. М., 1982
    Зеер Э.Ф. Психологодидактические конструкты качества профессионального образования // Образование и наука. 2002. № 2(14)
    Зимняя И.А. Ключевые компетенции — новая парадигма результата образования //
    Высшее образование сегодня. 2003. № 5
    Знаменская О.В. и др. Мониторинг индивидуального прогресса учащихся — новый подход к диагностике достижений // Как узнать, что происходит в образовании. М. 2006
    Исаев Е.И. Психологическая характеристика способов планирования у младших школьников // Вопросы психологии, 1983, № 2
    Исследования IAEPII. International Assessment of Educational Progress. 1991
    .
    Кальней В.А., Шишов С.Е. Мониторинг качества образования в школе. Шишов С.Е. //
    Стандарты и мониторинг в образовании. 1999. № 4
    Каспржак А.Г. и др. Новые требования к содержанию и методике обучения в российской школе в контексте результатов международного исследования PISA2000. М .:
    Университетская книга, 2005
    Каспржак А.Г. Российская школа: от PISA2000 к PISA2003 / Под ред.
    К.Н. Поливановой. М., 2006
    Качество знаний учащихся и пути его совершенствования / Под ред. М .Н .
    Скаткина, В.В.Краевского. М.: Педагогика, 1978
    Ковалева Г.С. Основные тенденции изменения подходов к оценке результатов обучения в странах мира // На пути к 12летней школе. М., 2000
    Краснянская К.А., Денищева Л.О. Международное исследование по оценке качества математической подготовки (TIMSS) // Школьные технологии. 1997. № 3–4
    Ковалева Г.С. и др. Изучение знаний и умений учащихся в рамках Международной программы PISA. Общиеподходы // ИОСО РАО, 1999
    Ковалева Г.С. и др. Основные результаты международного исследования образовательных достижений учащихся PISA2000 (краткий отчет). М., 2002а
    Ковалева Г.С. и др. Оценки знаний и умений. Международная программа PISA.
    Педагогическая диагностика. 2002б. № 1
    Кудина Г.Н., Новлянская З.Н. Курс «Литература как предмет эстетического цикла» в системе развивающего обучения. «Вопросы психологии». № 4. 2005.
    Кудина Г.Н., Новлянская З.Н. Методическое пособие к учебнику «Литературное чтение» для 2-го класса начальной школы. М. : ОНИКС21 век. Дом педагогики. 2002 г.
    Кудина Г.Н., Новлянская З.Н. Основные принципы и методы экспериментального курса «Литература как предмет эстетического цикла» // Психологическая наука и образование. 1996. № 4.
    Куревина Щ.Ф., Петерсон Л.Г. Концепция образования: современный взгляд. М.,
    1999
    Левин К. Динамическая психология: Избранные труды. М., 2001
    Леднев В.С., Никандров Н.Д., Рыжаков М.В. Государственные образовательные стандарты в системе общего образования: теория и практика. М., 2002
    Леонтьев А.Н., Запорожец А.В. Восстановление движений. Психофизиологическое исследование восстановления функций руки после ранения. М., 1945
    Лернер И.Я. Качества знаний учащихся . Какими они должны быть. М., 1978
    Лернер И.Я. Процесс обучения и его закономерности. М., 1980
    Лернер И.Я. Прогностическая концепция целей и содержания образования / Под ред. И.К. Журавлева. М.: 1994
    Магкаев В.Х. Теоретические предпосылки построения метода исследования и объективно-нормативной диагностики развития основ рефлексивного мышления //

    99
    Развитие основ рефлексивного мышления школьников в процессе учебной деятельности // Под. ред. В.В.Давыдова, В.В.Рубцова. Новосибирск, 1995.
    Магкаев В.Х. Экспериментальное изучение планирующей функции мышления в младшем школьном возрасте // Вопросы психологии, 1974, № 5
    Майоров А.Н. Теория и практика создания тестов для системы образования. М.,
    2000.
    Макарова Т.Д. и др. Итоговое тестирование. Дидактика 2000. М.: Педагогическое общество России. 1999
    Максимов Л.К. Формирование математического мышления у младших школьников. М., 1987.
    Мальцев А.В. Тестовая технология контроля знаний. Екатеринбург,
    1997
    Микулина Г.Г., Савельева О.В. К психологической оценке качества знаний у младших школьников // Психологическая наука и образование. 1997. № 2
    Микулина Г.Г., Савельева О.В. Способы проверки качества усвоения математических знаний // Руководство по оценке качества математических и лингвистических знаний школьников. Методические разработки. М., 1989
    Михайленко Н.Я., Короткова Н.А. Модель организации образовательного процесса в старших группах детского сада // Дошкольное воспитание. 1995. № 9.
    Михайлычев Е.А. Моделирование дидактического теста. Проблемы технологии //
    Школьные технологии. 1996. № 6
    Нежнов П.Г. Опосредствование и спонтанность в теоретической картине развития:
    Педагогика развития: образовательные интересы и их субъекты // Материалы 11й научно- практической конференции. Красноярск, 2005
    Нежнов П.Г. Опосредствование и спонтанность в модели «культурного развития» //
    Вестн.Моск.Ун-та. Серия 14. Психология. 2007, № 1 (Специальный выпуск: 40 лет факультету психологии МГУ)
    Нежнов П.Г. Функциональное поле как целевой ориентир в развивающем обучении
    //
    Материалы Всерос. научно-практич. конф. «Культ.-ист. теория Л.С.Выготского и основания современной психологии развития» (Москва 14-16 апреля 2005). М.,
    2005
    Нежнов П.Г., Медведев А.М. Метод исследования содержательного анализа у школьников // Вестник Моск. Ун-та. Серия 14, Психология. 1988, № 2
    Основные результаты международного исследования качества математического и естественнонаучного образования TIMSS 2003. М., 2004
    Оценка результатов в области образования. СИТО. Национальный институт по оценке достижений в области образования. Амхем, Нидерланды, 1995
    Пиаже Ж. Избранные психологические труды. М., 1969
    Поливанова К.Н. Психология возрастных кризисов. М., 2000
    Полуаршинова Е.Г. Тесты как средство контроля качества подготовки учащихся:
    Автореф. дисс. канд. пед. наук. М., 1998
    Равен, Джон. Педагогическое тестирование: проблемы, заблуждения, перспективы.
    М., 2001
    Рыжаков М.В. Ключевые компетенции в стандарте: возможности реализации //
    Стандарты и мониторинг в образовании. 1999. № 4
    Савельева О.В. Психологические критерии качества знаний младших школьников //
    Автореф… дисс. канд. пед. наук. М., 1989
    Селезнева Н.А. Размышления о качестве образования: международный аспект //
    Высшее образование сегодня. 2004. № 4
    Симонов В.П. Диагностика степени обученности учащихся: Учебно-справочное пособие. М., 1999

    100
    Симонов В.П. Директору школы об управлении учебно-воспитательным процессом.
    М., 1987
    Современная дидактика: теория — практике // Под ред. И.Я. Лернера, И.К.
    Журавлева. М., 1994
    Стоунс Э. Психопедагогика. Психологическая теория и практика обучения. М., 1984
    Талызина Н.Ф. Теоретические проблемы программированного обучения. М., 1969
    Талызина Н.Ф. Управление процессом усвоения знаний. М., 1975
    Фрумин И.Д. Компетентностный подход как естественный этап обновления содержания образования // Педагогика развития: ключевые компетентности и их становление. Красноярск, 2003
    Фрумин И.Д., Башев В.В. Проблемно рефлексивный подход в изучении обществознания. М., 2002
    Фрумин И.Д. и др. Оценка качества образования: обзор международных подходов и тенденций. М., 2005
    Холстед М., Орджи Т. Ключевые компетенции в системе оценки Великобритании:
    Современные подходы к компетентностно ориентированному образованию // Материалы семинара. Самара, 2001
    Хуторской А.В. Ключевые компетенции и образовательные стандарты. // Доклад на отделении философии образования и теории педагогики РАО 23 апреля 2002. Центр
    «Эйдос». www/eidos.ru/news/compet/htm
    Цукерман Г.А. Виды общения в обучении. Томск, 1993
    Цукерман Г.А. Переход из начальной школы в среднюю как психологическая проблема // Вопросы психологии, 2001. № 5
    Цукерман Г.А. Развивающие эффекты системы Б .Д . Эльконина–В .В . Давыдова //
    Психологическая наука и образование. 2003. № 4
    Шишов С.Е. Образовательные стандарты в странах Западной Европы и США: В сб.:
    Актуальные проблемы стандартизации образования // Под ред. Ю.И. Кривова. Пенза, 1997
    Шишов С.Е. Понятие компетенции в контексте качества образования // Стандарты и мониторинг в образовании. 1999. № 2
    Шишов С.Е., Кальней В.А. Школа: мониторинг качества образования. М., 2000
    Эльконин Б.Д. Педагогика развития: проба как конструкт образовательной системы //
    В кн.: Педагогика развития: ключевые компетентности и их становление. Красноярск,
    2003
    Эльконин Б.Д. Избранные психологические труды. М., 1989
    Anderson, L.W., & Krathwohl (Eds.). (2001). A Taxonomy for Learning, Teaching, and
    Assessing: A Revision of Bloom’s Taxonomy of Educational Objectives. New York: Longman
    Ashman A., Ashman A.F., Conway R.N.F. An Introduction to Cognitive Education: Theory and Applications. London: Routledge, 1997
    Bamett R. (1994). The limits of Competence. Knowledge, Higher Education and Society.
    Buckinham, UK: Open University Press
    Bloom, Benjamin (Ed.) A Taxonomy of Educational Objectives, Handbook 1: Cognitive
    Domain . New York: David McKay, 1956
    Bloom, B., Englehart, M. Furst, E., Hill, W., & Krathwohl, D. (1956). Taxonomy of educational objectives: The classification of educational goals. Handbook I: Cognitive domain.
    New York, Toronto: Longmans, Green
    Bloom B.S., Hasting J.T. & Madaus G.F. Handbook on Formative and Summative
    Evaluation of Student Learning. New York: McGrawHill, 1971
    Bredecamp Sue, Copple Carol (Ed.) Developmentally Appropriate Practice in Early
    Childhood Programs. NAEYC. Washington, 1997
    Commission Staff Working Paper. New Indicators on Education and Training //
    Commission of the European Communities // Brussels, 2004

    101
    Definition and Selection of Competencies (DeSeCo): Theoretical and Conceptual
    Foundations. Strategy Paper. (2002) www.deseco.admin.ch
    Holmes L. Decontaminating the concepts of “learning” and “competence”: education and modalities of emergent identity // Second International Conference on Critical Management
    Studies. Manchester, 2001
    Huitt, W. (1992). Problem solving and decision making: Consideration of individual differences using the Myers Briggs Type Indicator. Journal of Psychological Type, 24, 33–44.
    Retrieved June 2004, from
    1   ...   9   10   11   12   13   14   15   16   17


    написать администратору сайта