Загрузить архив: | |
Файл: ref-25720.zip (101kb [zip], Скачиваний: 93) скачать |
Оглавление
Введение...................................................................................................3
Глава I. Информация, ее виды и свойства.............................................4-18
1.1. Различные уровни представления об информации..............5
1.2. Непрерывная и дискретная информация...............................6-7
1.3. Единицы количества информации: вероятностный и объемный подходы............................................................................................................8-12
1.4. Информация: более широкий взгляд.....................................13-15
1.5. Информация и физический мир.............................................16-18
Глава II.особенности введения темы «информация» на уроках информатики в школе............19-26
2.1. Методические проблемы определения информации...........20-22
2.2. Подходы к измерению информации......................................23-26
2.3. методика решения задач по темам раздела «информация»
2.4. информационные процессы
а) процесс хранения информации
б) процесс обработки информации
в) процесс передачи информации
Глава III Способы введения тем раздела «информация» на уроках информатики…………………………………………………………………27-52
3.1. Уроки информатики по теме раздела «информация»………27-32
3.2. Проверка эффективности восприятия учебного материала по темам раздела «информация» на уроках информатики в 7 классе……….33-49
3.3.
Заключение...............................................................................................52
Список литературы..................................................................................53
Приложение
Введение.
Официально предмет «информатика» в России был введен 1 сентября 1985 года. До этого существовали лишь внеклассные уроки или кружки по совместимости с математическими предметами. Теперь появились уже специалисты в этой относительно молодой области технологий. По ходу развития информатики появились новые понятия, такие как: информация, информационные процессы, подходы к изучению и измерению информации в целом. Информатика в наше время превратилась в самостоятельную науку. В связи с этим мы посчитали актуальным вопрос рассмотрения темы «особенности преподавания урока информатики по теме «информация», так как она позволяет расширять информационный кругозор и культуру учащихся школы. Способствует эффективному усвоению учебного материала по данному предмету в целом.
В этой выпускной квалификационной работе мы подробно описываем особенности проведения уроков информатики по теме «информация». И поставили перед собой следующую цель: выявлять наиболее эффективныеметоды изучения данной темы, определить значение необходимости изучения данной темы для соблюдения целостности изучения материала на уроках информатики, выявлять факторы, влияющие на повышение качества ЗУНов по этой теме.
В соответствии с поставленной целью мы определили следующие задачи:
1.
2.
3.
В соответствии с целями и задачами мы определили объект и предмет нашего исследования. Объектом является учебно-воспитательный процесс изучения темы «Информация» в школьном курсе информатики. Предметомявляется методика эффективного изучения данной темы в школьном курсе.
В нашей работе мы сделали следующее предположение:. Без изучения данной темы в курсе информатики невозможно осмысленное и комплексное изучение следующих тем курса.
.
I. Информация, её виды и свойства.
1.1. Различные уровни представления об информации.
Понятие «Информация» является одним из фундаментальных в современной науке вообщеи базовым для изучаемой нами информатики. Информацию наряду с веществом и энергией рассматривают в качестве важнейшей сущности мира, в котором мы живем. Однако, если задаться целью формально определить понятие «информация», то сделать это будет чрезвычайно сложно. Аналогичными неопределяемыми понятиями, например, в математике являются «точка» и «прямая». Так можно сделать некоторые утверждения, связанные с этими математическими понятиями, но сами они не могут быть определены с помощью более элементарных понятий.
В простейшем бытовом помещении с термином «информация» обычно ассоциируются некоторые сведения, данные, знания. Информация передается в виде сообщений, определяющих форму и представление передаваемой информации. Примерами сообщений являются музыкальные произведения; телепередачи; команды регулировщика на перекрёстке; текст, распечатанный на принтере; данные, полученные в результате работы сопоставленной вами программы и т.д. При этом предполагается, что имеются «источник информации» и «получатель информации».
Сообщение от источника к получателю передается посредством какой – нибудь среды, являющейся в таком случае «каналом связи» (рис. 1.1). Так при передаче речевого сообщения в качестве такого канала связи можно рассматривать воздух, в котором распространяются звуковые волны, а в случае передачи письменного сообщения (например, текста, распечатанного на принтере) каналом сообщения можно считать лист бумаги, на котором напечатан текст.
Рис. 1.1. Схема передачи информации.
Человеку свойственно субъективное восприятие информации через некоторый набор её свойств: важность, достоверность, своевременность, доступность и т. д. В этом смысле одно и тоже сообщение, передаваемое от источника к получателю, может предавать информацию в разной степени. Так, например, вы хотите сообщить о неисправности компьютера. Для инженера из группы технического обслуживания вахтера. Но, в свою очередь, для инженера сообщение «не включается дисплей» содержит информации больше, чем первое, поскольку в большей степени снимает неопределенность, связанную с причиной неисправности компьютера. Как видно, одно и тоже сообщение для различных пользователей несет различную информацию.
Использование терминов «больше информации» или «меньше информации» подразумевает некую возможность ее измерения (или, хотя бы, количественного сообщения). При субъективном восприятии измерения информации возможно лишь в виде установления некой порядковой шкалы для оценки «больше» - «меньше», да и то субъективной, поскольку на свете немало людей, для которых, например, оба сообщения, использованных выше в качестве примера, вообще не несут никакой информации. Такое становится невозможным при введении объективных характеристик, из которых для информации важнейшей является количество. Однако при объективном измерении количества информации следует заведомо отрешиться от восприятия ее с точки зрения субъективных свойств, примеры которых перечислены выше. Более того, не исключено, что и всякая информация будет иметь объективно измеряемое количество – все зависит от того, как будут введены единицы измерения. Не исключено и то, что при разных способах введения единиц измерения информация, содержащаяся в двух допускающих измерение сообщениях, будут по-разному соотноситься.
1.2. Непрерывная и дискретная информация.
Чтобы сообщение было передано от источника к получателю, необходима некоторая материальная субстанция – носитель информации. Сообщение, передаваемое с помощью носителя, назовем сигналом. В общем случае сигнал – это изменяющийся во времени физический процесс. Такой процесс может содержать различные характеристики (например, при передаче электрических сигналов могут изменяться напряжение и сила тока). Та из характеристик, которая используется для представления сообщений, называется параметром сигнала.
В случае, когда параметр сигнала принимает последовательное во времени конечное число значений (при этом все они могут быть пронумерованы), сигнал называется дискретным, а сообщение, передаваемое с помощью таких сигналов – дискретным сообщением. Информация, передаваемая источником, в этом случае также называется дискретной. Если же источник вырабатывает непрерывное сообщение (соответственно параметр сигнала – непрерывная функция от времени), соответствующая информация называется непрерывной. Пример дискретного сообщения – процесс чтения книги, информация в которой представлена текстом, т. е. дискретной последовательностью отдельных значков (букв). Примером непрерывного сообщения служит человеческая речь, передаваемая модулированной звуковой волной; параметром сигнала в этом случае служит давление, создаваемое этой волной в точке нахождения приемника – человеческого уха.
Непрерывное сообщение может быть представлено непрерывной функцией, заданной на некотором отрезке [a,b] (рис. 1.2). Непрерывное сообщение можно преобразовать в дискретное (такая процедура называется дискретизацией). Для этого из бесконечного множества значений этой функцией (параметр сигнала) выбирается их определенное число, которое приближенно может характеризовать остальные значения. Один из способов такого выбора состоит в следующем: область определения функции разбивается точками Х1, Х2 … Х на отрезке равной длинны и на каждом из этих отрезков значение функции принимается постоянным и равным, например, среднему значению на этом отрезке; полученная на этом этапе функция называется в математике ступенчатой. Следующий шаг – проецирование значений «ступеней» на ось значений функции (ось координат). Полученная таким образом последовательность значений функции Y1, Y2 … Y является дискретным представлением непрерывной функции, точность которого можно неограниченно улучшать путем уменьшения длин отрезков разбиения области значений аргумента.
Рис. 1.2. Процедура дискретизации непрерывного сообщения.
Ось значений функции можно разбить на отрезки с данным шагом и отобразить каждый из выделенных отрезков из области определения функции в соответствующий отрезок из множества значений. В итоге получим конечное множество чисел, определяемых, например, по середине или одной из границ таких отрезков.
Таким образом, любое сообщение может быть представлено как дискретное, иначе говоря, последовательностью знаков некоторого алфавита.
Возможность дискретизации непрерывного сигнала с любой желаемой точностью (для возрастания точности достаточно уменьшить шаг) принципиально важна с точки зрения информатики. Компьютер – цифровая машина, т.е. внутреннее представление информации в нем дискретно. Дискретизация входной информации (если она непрерывна) позволяет сделать ее пригодной для компьютерной обработки.
Существуют и другие вычислительные машины – аналоговые ЭВМ. Они используются обычно для решения задач специального характера и мировой публике практически неизвестны. Эти ЭВМ в принципе не нуждаются в дискретизации входной информации, т.к. ее внутреннее представление у них непрерывно. В этом случае все наоборот – если внешняя информация дискретна, то ее «перед употреблением» необходимо преобразовать в непрерывную.
1.3. Единицы количества информации: вероятностный и объемный подходы.
Определить понятие «количество информации» довольно сложно. В решении этой проблемы существуют 2 основных подхода. Исторически они возникли почти одновременно. В конце 40-ых гг. ХХ века один из основоположников кибернетики американский математик Клод Шеннон развил вероятностный подход к измерению количества информации, а работы по созданию ЭВМ привели к «объемному» подходу.
Вероятностный подход.
Рассмотрим в качестве примера опыт, связанный с бросанием правильной игральной кости, имеющей N граней (наиболее распространенным является случай 6-тигранной кости: N=6). Результаты данного опыта могут быть следующие: выпали грани с одним из следующих знаков: 1, 2, …, N.
Введем в рассмотрение численную величину, измеряющую неопределенность – энтропию (обозначим ее Н). Величины N и H связаны между собой некоторой функциональной зависимостью:
SHAPE * MERGEFORMAT
H=f(N) |
(1.1)
А сама функция f является возрастающей, неотрицательной и определенной (в рассматриваемом нами примере) для N=1, 2, …, 6.
Рассмотрим процедуру бросания кости более подробно:
1) H1;
2) I;
3) H2;
За количество информации, которое получено в ходе осуществления опыта, примем разность неопределенностей «до» и «после» опыта:
SHAPE * MERGEFORMAT
I=H1-H2 |
(1.2)
Очевидно, что в случае, когда получен конкретный результат, имевшаяся неопределенность снята (Н2=0), и, таким образом, количество полученной информации совпадает первоначальной энтропией. Иначе говоря, неопределенность, заключенная в опыте, совпадает с информацией об исходе этого опыта.
Следующим важным моментом является определение вида функции f в формуле (1.1). Если варьировать число граней N и число бросаний кости (обозначим эту величину через М), общее число исходов (векторов длины М, состоящих из знаков 1, 2, …, М) будет равно N в степени М:
SHAPE * MERGEFORMAT
X=Nm |
(1.3)
Так в случае двух бросаний кости с шестью гранями имеем: Х=62=36. Фактически каждый исход Х есть некоторая пара (Х1;Х2), где Х1 и Х2 – соответственно исходы первого и второго бросаний (общее число таких пар – Х).
Ситуацию с бросанием М раз кости можно рассматривать как некоторую сложную систему, состоящую из независимых друг от друга подсистем – «однократных бросаний кости». Энтропия такой системы в М раз больше, чем энтропия одной системы (так называемый «принцип дитивности энтропии»):
f(6m) = M*f(6)
Данную формулу можно распространить и на случай любого N:
f(Nm) = M*f(N) (1.4)
Прологарифмируем левую и правую части формулы (1.3): lnX=M*lnN, M=lnX/lnN.
Подставляем полученное для М значение в формулу (1.4):
f(X) = lnX/lnM*f(N)
Обозначив через К положительную константу, получим: f(x) = k*lnX, или, с учетом (1.1), H = k*lnX. Обычно принимают k=1/ln2. Таким образом
H =log2N
Это – формула Хартли.
Важным при введении какой – либо величины является вопрос о том, что принимать за единицу ее измерения. Очевидно, Н будет равно единице при N=2. Иначе говоря, в качестве единицы принимается количество информации, связанное с проведением опыта, состоящего в получении одного из двух равновероятных исходов (примером такого опыта может служить бросание монеты, при котором возможны 2 исхода «орел», «решка»). Такая единица количества информации называется «бит».
Все N исходов рассмотренного выше опыта являются равновероятными и поэтому можно считать, что на «долю» каждого исхода приходится одна N-я часть общей неопределенности опыта: (log2N)/N. При этом вероятность 1-го исхода Pi является, очевидно, 1/N.
Таким образом;
H=∑*Pi*log2 (1/Pi)
(1.6)
Так же формула (1.6) принимается за меру энтропии в случае, когда вероятности различных исходов опыта неравновероятны (т.е. Pi могут быть различны). Формула (1.6) называется формулой Шеннона.
В качестве примера определим количество информации, связанное с появлением каждого символа в сообщениях, записанных на русском языке. Будем считать, что русский алфавит состоит из 33 букв и знака «пробел» для разделения слов. По формуле (1.5)
H = log234 ≈ 5 бит
Однако, в словах русского языка (равно как и в словах других языков) различные буквы встречаются неодинаково часто. Ниже приведена таблица 1.1 вероятностей частоты употребления различных знаков русского алфавита, полученная на основе анализа очень больших по объему текстов.
Воспользуемся для подсчета Н формулой (1.6): Н ≈ 4,72 бит. Полученное значение Н, как и можно было предположить, меньше вычисленного ранее. Величина Н, вычисляемая по формуле (1.5), является максимальным количеством информации, которое могло бы приходиться на один знак.
i |
Символ |
P(i) |
i |
Символ |
P(i) |
i |
Символ |
P(i) |
1 |
пробел |
0,175 |
13 |
К |
0,028 |
24 |
Г |
0,012 |
2 |
О |
0,090 |
14 |
М |
0,026 |
25 |
Ч |
0,012 |
3 |
Е |
0,072 |
15 |
Д |
0,025 |
26 |
Й |
0,010 |
4 |
Ё |
0,072 |
16 |
П |
0,023 |
27 |
Х |
0,009 |
5 |
А |
0,062 |
17 |
У |
0,021 |
28 |
Ж |
0,007 |
6 |
И |
0,062 |
18 |
Я |
0,018 |
29 |
Ю |
0,006 |
7 |
Т |
0,053 |
19 |
Ы |
0,016 |
30 |
Ш |
0,006 |
8 |
Н |
0,053 |
20 |
З |
0,016 |
31 |
Ц |
0,004 |
9 |
С |
0,045 |
21 |
Ь |
0,014 |
32 |
Щ |
0,003 |
10 |
Р |
0,040 |
22 |
Ъ |
0,014 |
33 |
Э |
0,003 |
11 |
В |
0,038 |
23 |
Б |
0,014 |
34 |
Ф |
0,002 |
12 |
Л |
0,035 |
Аналогичные подсчеты Н можно провести и для других языков, например использующих латинский алфавит, - английского, немецкого, французского и др.(26 различных букв и «пробел») по формуле (1.5) получим
H = log227 ≈ 4,76 бит
Как и в случае русского языка, частота появления тех или иных знаков неодинакова.
Если расположить все буквы данных языков в порядке убывания вероятностей, то получим следующие последовательности:
Английский язык «пробел» Е, Т, А, О, N, R,…
Немецкий язык«пробел» Е, N, I, S, T, R,…
Французский язык «пробел» E, S, A, N, I, T,…
Рассмотрим алфавит, состоящий из двух знаков 0 и 1. Если считать, что со знаками 0 и 1 в двоичном алфавите связаны одинаковые вероятности их появления (Р(О) = Р(i) = 0,5), то количество информации на один знак при двоичном кодировании будет равно
H = log22 = 1 бит
Таким образом, количество информации (в битах), заключенное в двоичном слове, равно числу двоичных знаков в нем.
Объемный подход.
В двоичной системе счисления знаки 0 и 1 будем называть битами (от английского выражения Binarydigits – двоичные цифры). Отметим, что создатели компьютеров отдают предпочтение именно двоичной системе счисления потому, что в техническом устройстве наиболее просто реализовать два противоположных физических состояния: некоторый физический элемент, имеющий 2 различных состояния: намагниченность в двух противоположных направлениях; прибор, пропускающий или нет электрический ток; конденсатор, заряженный или незаряженный и т. п. В компьютере бит является наименьшей возможной единицей информации. Объем информации, записанной двоичными знаками в памяти компьютера или на внешнем носителе информации подсчитывается просто по количеству требуемых для такой записи двоичных символов. При этом, в частности, невозможно нецелое число битов (в отличии от вероятностного подхода).
Для удобства использования введены более крупные, чем бит, единицы количества информации. Так, двоичное слово из восьми знаков содержит один байт информации, 1024 бита образуют килобайт (Кбайт), 1024 килобайта – мегабайт (Мбайт), а 1024 мегабайта – гигабайт (Гбайт).
Между вероятностным и объемным количеством информации соотношение не однозначное. Далеко не всякий текст, записанный двоичными символами, допускает измерение объема информации в кибернетическом смысле, но заведомо допускают его в объемном. Далее, если некоторое сообщение допускает измеримость количества информации в обоих смыслах, то они не обязательно совпадают, при этом кибернетическое количество информации не может быть больше объемного.
В дальнейшем тексте данного учебника практически всегда количество информации помещается в объемном смысле.
1.4. Информация: более широкий взгляд.
Как ни важно измерение информации, нельзя сводить к нему все связанные с этим понятием проблемы. При анализе информации социального (в широком смысле) происхождения на первый план могут выступать такие её свойства как истинность, своевременность, ценность и т. д. Их невозможно оценить в терминах «уменьшение неопределенности» (вероятностный подход) или числа символов (объемный подход). Обращение к качественной стороне информации породило иные подходы к ее оценке. При аксиологическом подходе стремятся исходить из ценности, практической значимости информации, т.е. качественных характеристик, значимых в социальной системе. При семантическом подходе информация рассматривается с точки зрения как формы, так и содержания. При этом информацию связывают с тезаурусом, т.е. полнотой систематизированного набора данных о предмете информации. Отметим, что эти подходы исключают количественного анализа, но он становится существенно сложнее и должен базироваться на современных методах математической статистики.
Понятие информации нельзя считать лишь техническим, междисциплинарным и даже недисциплинарным термином. Информация – это фундаментальная философская категория. Дискуссии ученых о философских аспектах информации надежно показали несводимость информациини к одной из этих категорий. Концепции и толкования, возникающие на пути догматических подходов, оказываются слишком частными, однообразными, не схватывающими всего объема этого понятия.
Попытки рассмотреть категорию информации с позиции основного вопроса философии привели к возникновению двух противостоящих концепций – так называемых, функциональной и атрибутивной. «Атрибутиеты» квалифицируют информацию как свойство всех материальных объектов, т.е. как атрибут материи. «Функционалисты» связывают информацию лишь с функционированием сложных, самоорганизирующихся систем. Оба подхода, скоре всего, не полны. Дело в том, что природа сознания духа по сути своей является информационной, т.е. сознание суть менее общего понятия по отношению к категории «информация». Нельзя признать конкретными попытки сведения более общего понятия к менее общему. Таким образом, информация и информационные процессы, если иметь в виду решения основного вопроса философии, опосредуют материальное и духовное, т.е. в место классической постановки этого вопроса получаются два новых: о соотношении материи и информации и о соотношении информации и сознания (духа).
Можно попытаться дать философское определение информации с помощью указания на связь определяемого понятия с категориями отражения и активности. Информация есть содержание образа, формируемого в процессе отражения. Активность входит в это определение в виде представления о формировании некоего образа в процессе отражения некоторого субъект – объектного отношения. При этом не требуется указание на связь информации с материей, поскольку как субъект, так и объект процесса отражения могут принадлежать как к материальной, так и к духовной сфере социальной жизни. Однако существенно подчеркнуть, что материалистическое решение основного вопроса философии требует признание необходимости существования материальной среды – носителя информации в процессе такого отражения. И так, информацию следует трактовать неотъемлемо присущий атрибут материи, необходимый момент ее самодвижения и саморазвития. Эта категория приобретает особое значение применительно к высшим формам движения материи биологической и социальной.
Данное выше определение охватывает важнейшие характеристики информации. Оно не противоречит тем знаниям, которые накоплены по этой проблематике, а наоборот, является выражением наиболее значимых.
Современная практика психологии, социологии, информатики диктует необходимость перехода к информационной трактовке сознания. Такая трактовка оказывается чрезвычайно плодотворной и позволяет, например, рассмотреть с общих позиций индивидуальное и общественное сознание. Генетически индивидуальное и общественное сознания не равны и в тоже время общественное сознание ни есть простая сумма индивидуальных, поскольку оно включает информационные потоки и процессы между индивидуальными сознаниями.
В социальном плане человеческая деятельность предстает как взаимодействие реальных человеческих коммуникаций с предметами материального мира. Поступившая из вне к человеку информация является отпечатком, снимком сущностных сил природы или другого человека. Таким образом, с единых методологических позиций может быть рассмотрена деятельность индивидуального и общественного сознания, экономическая, политическая, образовательная деятельность различных субъектов социальной системы.
Данное выше определение информации как философской категории не только затрагивает физические аспекты существования информации, но и фиксирует ее социальную значимость.
Одной из важных черт функционирования современного общества выступает ее информационная оснащенность. Входе своего развития человеческое общество прошло через пять информационных революций. Первая из них была связана с введением языка, вторая – письменности, третья – книгопечатания, четвертая – телесвязи, и, наконец, пятая – компьютеров (а так же магнитных и оптических носителей хранения информации). Каждый раз новые информационные технологии поднимали информированность общества на несколько порядков, радикально меняя объем и глубину знания, а вместе с этим и уровень культуры в целом.
Одна из целей философского анализа понятия информации – указать место информационных технологий в развитии форм движения материи, в прогрессе человечества и, в том числе, в развитии разума как высшей отражательной способности материи. На протяжении десятков тысяч лет сфера разума развивалась исключительно через общественную форму сознания. С появлением компьютеров начались разработки систем искусственного интеллекта, идущих по пути моделирования общих интеллектуальных функций индивидуального сознания.
1.5. Информация и физический мир.
Известно большое количество работ, посвященных физической трактовке информации. Эти работы в значительной мере построены на основе аналогии формулы Больцмана, описывающей энтропию статистической системы материальных частиц, и формулы Хартли.
Заметим, что при всех выводах формулы Больцмана явно или неявно предполагается, что макроскопическое состояние системы, к которому относится функция энтропии, реализуется на микроскопическом уровне как сочетание механических состояний очень большого числа частиц, образующих систему (молекул). Задачи же кодированияи передачи информации, для решения которых Хартли и Шенноном была развита вероятностная мера информация, имели ввиду очень узкое техническое понимание информации, почти не имеющая отношения к полному объему этого понятия. Таким образом, большинство рассуждений, использующих термодинамические свойства энтропии применительно к информации нашей реальности, носит специальный характер. В частности, является необоснованными использование понятия «энтропия» для систем с конечными небольшими числами состояний, а так же попытки расширительного методологического толкования результатов теории вне довольно примитивных механических моделей, для которых они были получены. Энтропия и ниэнтропия интегральные характеристики протекания стохастических процессов – линии параллельны информации и превращаются в нее в частном случае.
Информацию следует считать особым видом ресурса, при этом имеется в виду толкование «ресурса» как запаса неких знаний материальных предметов или энергетических, структурных или каких – либо других характеристик предмета. В отличие от ресурсов, связанных с материальными предметами, информационные ресурсы являются неистощимыми и предполагают существенные методы воспроизведения и обновления, чем материальные ресурсы.
Рассмотрим некоторый набор свойств информации:
- запоминаемость;
- передаваемость;
- преобразуемость;
- воспроизводимость;
- стираемость.
Свойства запоминаемости – одно из самых важных. Запоминаемую информацию будем называть макроскопической (имея в виду пространственные масштабы запоминающей ячейки и время запоминания). Именно с макроскопической информацией мы имеем дело в реальной практике.
Передаваемость информации с помощью каналов связи (в том числе с помехами) хорошо исследовано в рамках теории информации К. Шеннона. В данном случае имеется в виду несколько иной аспект – способность информации к копированию, т.е. к тому, что она может быть «запомнена» другой макроскопической системой и при этом остается тождественной самой себе. Очевидно, что количество информации не должно возрастать при копировании.
Воспроизводимость информации тесно связана с ее передаваемостью и не является ее независимым базовым свойством. Если передаваемость означает, что не следует считать существенными пространственные отношения между частями системы, между которыми передается информация, то воспроизводимость характеризует неиссякаемость и неистощимость, т.е., что при копировании информация остается тождественной самой себе.
Фундаментальное свойство информации – преобразуемость. Оно означает, что информация может менять способ и форму своего существования. Копируемость есть разновидность преобразования информации, при котором его количество не меняется. В общем случае количество информации в процессах преобразования меняется, но возрастать не может. Свойство стираемости информации также не является независимым. Оно связано с таким преобразованием информации (передачей), при котором ее количество уменьшается и становится равным нулю.
Данных свойств информации недостаточно для формирования ее меры, так как они относятся к физическому уровню информационных процессов.
Подводя итог сказанному в п. 1.4 – 1.5, отметим, что предпринимаются усилия ученых, представляющих самые разные области знаний, построить единую теорию, которая призвана формализовать понятие информации и информационного процесса, описать превращение информации в процессах самой разной природы. Движение информации есть сущность процессов управления, которые………, ее способности к самодвижению. С момента возникновения кибернетики управление рассматривается применительно ко всем формам движения материи, а не только к высшим (биологической и социальной). Явное проявление движения в неживых – искусственных (технических) и естественных (природных) – системах также обладают общими признаками управления, хотя их исследуют в химии, физике, механике в энергетической, а не в информационной системе представлений. Информационные аспекты в таких системах составляют предмет новой междисциплинарной науки – синергетики.
Высшей формой информации, проявляющейся в управлении в социальных системах, являются знания. Это наддисциплинарное понятие, широко используемое в педагогике и исследованиях по искусственному интеллекту, также претендует на роль важнейшей философской категории. В философском плане познание следует рассматривать как один из функциональных аспектов управления. Такой подход открывает путь к системному пониманию генезиса процессов познания, его основ и аспектов.
II. Линия информации и информационных процессов.
Система знаний содержательной линии «информация и информационные процессы» представлены в виде графа по схеме 1. Данная схема объединяет в себе структуру двух содержательных линий: «информация и информационные процессы» и «представление информации». Вместе их можно рассматривать в качестве интегрированной линии с названием «информация».
|
Измерения информации |
Информационные процессы |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
Надо сказать, что линия информации охватывает содержание всего базового курса, поскольку понятие информации является в нем центральным. В любой теме курса речь идет о различных вариантах представления информации и информационных процессов. Поэтому схема 1 представляет собой структуру наиболее общих понятий предмета.
Каждое из понятий данной системы рассматривается в базовом курсе в двух аспектах: назовем их условно «компьютерным» и «безкомпьютерным». Под компьютерным аспектом понимается рассмотрение информации без привязи к компьютеру, с общих позиций, по отношению к человеку, обществу, природе. В этом аспекте изучаются такие вопросы, как: определение и измерение информации, информационные модели, информационные процессы и процессы управления в природе и обществе. Под компьютерным аспектом понимается изучение информационной стороны функционирования самого компьютера в рамках архитектуры ЭВМ, а также изучение компьютерных технологий работы с информацией, программирование. Ключевыми вопросами данной содержательной линии являются:
- определение информации;
- измерение информации;
- хранение информации;
- передача информации;
- обработка информации.
2.1. Методические проблемы определения информации.
Подходы к раскрытию темы в учебной литературе. То, что понятие «информация» является центральным в курсе информатики, кажется очевидным уже хотя бы потому, что с этим термином связано название предмета. Однако если проанализировать существующие учебники и учебные пособия, то возникает вывод, что далеко не в каждом из них это обстоятельство находит отражение. Тому есть 2 причины.
Первая заключается в том, что в авторских концепциях ряда учебников на первое место ставится отнюдь не информация. В большей степени это относится к учебникам первого [20] и второго [16, 21, 22] поколения. В них главными понятиями и объектами изучения выступают «алгоритм» и «компьютер». Информация упоминается лишь вскользь и в основном определяется на интуитивном уровне.
Вторая причина – в объективной сложности самого понятия «информация». Это понятие относится к числу фундаментальных в науке, носит философский характер и является предметом постоянных научных дискуссий.
Проанализируем варианты определения информации, данные в различных учебниках и пособиях по школьной информатике.
В учебнике А.П. Ершова такого определения вообще нет. Видимо, авторы полагали, что смысл понятия «информация» очевиден для школьников, и обсуждать его не требуется. В первых строках учебника информация упоминается в следующих утверждениях: «Информатика исследует законы и методы переработки и накопления информации. Ее развитие связано с появлением электронно-вычислительных машин, мощных универсальных устройств для хранения и переработки информации».
В учебнике второго поколения А.Г. Кушниренко в разделе «Информация – первичная, неопределяемое понятие информатики» написано следующее: «Так что же такое информация?». Отсутствие самого определения, однако, не мешает нам измерять объем информации и обрабатывать ее.
В учебнике А.Г. Гейла [21] понятие «информация» встречается первый раз в первой главе в таком контексте: «Информация – постоянный спутник человека. Это те сведения, которые помогают ориентироваться нам в окружающем мире».
В третьем учебнике этого же поколения В.А. Каймана в первой главе написано: «Информация в наиболее общем определении – это отражение предметного мира с помощью знаков и сигналов». Очевидно, это определение претендует на универсальность с любых точек зрения.
Наконец, заглянем в учебники третьего поколения. В учебнике А.Г. Гейла в пятой главе практически повторяется определение из книги [21]: «В интуитивном житейском смысле под информацией понимается сведения, знания, и т.п., которые кого – либо интересуют».
Если в центр содержания курса информатики ставить информацию (а не алгоритм, ЭВМ и прочее), если рассматривать это понятие как системно образующее для всего предмета, то обойти на уроках вопрос об определении нельзя. Бесспорно то, что нельзя дать единого, универсального определения информации.
В учебниках И.Г. Семакина раскрываются два подхода к понятию информации. Первый можно назвать субъективным подходом, при котором информация рассматривается с точки зрения ее роли в жизни и деятельности человека. С этой позиции информация – это знания, сведения, которыми обладает человек, которые он получает из окружающего мира.
Второй подход можно назвать кибернетическим, поскольку развитие он получил в кибернетике. Именно этот подход позволяет создавать машины, работающие с информацией. С этой точки зрения информация – содержание последовательностей символов из некоторого алфавита. В таком случае все виды информационных процессов (хранение, передача, обработка) сводится к действиям над символами, что и происходит в технических информационных системах.
2.2. Подходы к измерению информации.
Методические рекомендации по изучению темы.
Субъективный подход к измерению информации.
При раскрытии понятия «информация», с точки зрения субъективного (бытового, человеческого) подхода, следует отталкиваться от интуитивных представлений об информации, имеющихся у детей. Целесообразно вести беседу в форме диалога, задавая ученикам вопросы, на которые они в состоянии ответить. Не следует сразу требовать от них определения информации, но подвести их к этому определению с помощью понятных вопросов вполне возможно. Вопросы, например, можно задавать в следующем порядке.
- Расскажите, откуда вы получаете информацию?
Наверняка услышите ответ:
- из книг, из радио и телепередач.
Дальше попросите учеников привести примеры какой-нибудь информации, которую они получили сегодня. Например, кто-нибудь ответит:
- Утром по радио я слышал прогноз погоды.
Ухватившись за такой ответ, учитель подводит учеников к окончательному выводу:
- Значит, вначале ты не знал, какая будет погода, а после прослушивания радио стал знать! Следовательно, получив информацию, ты получил новые знания!
Таким образом, учитель вместе с учениками приходит к выводу: информация для человека – это знания, которые он получает из различных источников. Далее на многочисленных известных детям приметах следует закрепить это определения.
Приняв определение информации как знание людей, неизбежно приходишь к выводу, что информация – это содержимое нашей памяти, ибо человеческая память и есть средство хранения знаний. Разумно назвать такую информацию внутренней, оперативной информацией, которой обладает человек. Однако люди хранят информацию не только в собственной памяти, но и в записях на бумаге, на магнитных носителях и пр. такую информацию можно назвать внешней (по отношению к человеку). Чтобы человек мог ей воспользоваться (например, приготовить блюдо по кулинарному рецепту), он должен сначала её прочитать, т. е. обратить во внутреннюю форму, а затем уже производить какие-то действия.
Вопрос о квалификации знаний (а стало быть, информации) очень сложный. В науке существуют различные подходы к нему. Особенно много этим вопросом занимаются специалисты в области искусственного интеллекта. В рамках базового курса достаточно ограничится делением знаний на декларативные и процедурные. описание декларативных знаний можно начинать со слов: «Я знаю, как…». Нетрудно дать примеры на оба типа знаний и предложить детям придумать свои примеры.
Учитель должен хорошо понимать пропедевтическое значение обсуждения данных вопросов для будущего знакомства учеников с устройством и работой компьютера. У компьютера, подобно человеку, есть внутренняя – оперативная память и внешняя – долговременная память. Деление знаний на декларативные и процедурные в дальнейшем следует увязать с делением компьютерной информации на данные – декларативная информация, и программы – процедурная информация. Использование дидактического приема аналогии между информационной функцией человека и компьютера позволит ученикам лучше понять суть устройства и работы ЭВМ.
Исходя из позиции «информация для человека – это знания», учитель сообщает ученикам, что и запахи, и вкусы, и тактильные (осязательные) ощущения тоже несут информацию человеку. Обоснование этому очень простое: раз мы помним знакомые запахи и вкусы, узнаем на ощупь знакомые предметы, значит эти ощущения хранятся в нашей памяти, а стало быть, являются информацией. Отсюда вывод: с помощью всех своих органов чувств человек получает информацию из внешнего мира.
Содержательный подход к измерению информации:
Изучаемые вопросы:
- От чего зависит информативность сообщения, принимаемого человеком;
- Единица измерения информации;
- Количество информации в сообщении об одном из N равновероятных событий.
С позиции содержательного подхода рассматривается следующая цепочка понятий: информация – сообщение – информативность сообщения – единицы измерения информации – информативный объем сообщения.
Исходная посылка: информация – это знания людей. Следующий вопрос: Что такое сообщение? Сообщение – это информационный поток, который в процессе передачи информации поступает к принимающему его субъекту. Сообщение – это и речь, которую мы слушаем (радиосообщение, речь учителя) и воспринимаемые нами зрительные образы (фильм по телевизору, сигнал светофора), и текст книги, которую мы читаем и т.д.
Вопрос об информативности сообщения следует обсуждать на примерах, предлагаемых учителем и учениками. Правило: информативным назовем сообщение, которое пополняет знания человека, т.е. имеет для него информацию.
При изучении этой темы можно предложить ученикам поиграть в своеобразную викторину. Например, учитель предлагает детям перечень вопросов, на которые они молча записывают ответы на бумагу. Если ученик не знает ответа, он ставит знак вопроса. После этого учитель дает правильные ответы на свои вопросы, а ученики, записав ответы учителя, отмечают, какие из них оказались для них информативными (+), какие – нет (-). При этом для сообщений, отмеченных минусом, можно указать причину отсутствия информации: не новая (это я знаю), не понятная. Например, список вопросов и ответы одного из учеников могут быть следующими.
Вопрос учителя |
Ответ ученика |
Информативность сообщения |
Причина неинформативности |
|
1.Какой город является столицей Франции |
Столица Франции - Париж |
Столица Франции - Париж |
- |
Не новое |
2.Что изучает коллоидная химия |
? |
коллоидная химия изучает дисперсионные состояния систем, обладающих высокой степенью раздробленности |
- |
Не понятное |
3.Какую высоту и вес имеет Эйфелева башня |
? |
Эйфелева
башня имеет высоту |
+ |
Введение понятия «информативность сообщения» является первым подходом к изучению вопросаоб измерении информации в рамках содержательной концепции. Если сообщение неинформативно для человека, то количество информации в нем, с точки зрения этого человека, равна нулю. Количество информации в информативном сообщении больше нуля.
Для определения количества информации нужно ввести единицу измерения информации. В рамках содержательного подхода такая единица должна быть мерой пополнения знаний субъекта, иначе можно еще сказать так: мерой уменьшения степени его незнания.
Возвращаясь к вопросу об измерении количества информации, заключенной в сообщении об одном из N равновероятных событий, предлагаем следующую логическую цепочку раскрытия темы.
Объяснение удобно начать с частного определении бита как меры информации в сообщении об одном из двух равновероятном событии. Обсуждая традиционный пример с монетой (орел – решка), следует отметить, что получение сообщения о результате бросания монеты уменьшило неопределенность знаний в 2 раза: перед подбрасыванием монеты было 2 равновероятных варианта, после получения сообщения о результате остается один единственный. Далее следует сказать, что и для всех других случаев сообщений о равновероятных событиях при уменьшении неопределенности знаний в 2 раза передается 1 бит информации.
Примеры; приведенные в учебнике, учитель может дополнить другими, а также предложить ученикам придумать свои примеры. От частных примеров учитель вместе с классом приходит к обобщенной формуле: 2i=N. Здесь N – число вариантов равновероятных событий, а i количество информации в сообщении о том, что произошло одно из N событий.
Если N – известно, а i является неизвестной величиной, то данная формула превращается в показательное уравнение: i=log2N. Во втором варианте следует рассмотреть с учениками решение уравнения для частных случаев, когда N есть целая степень двойки: 2, 4, 8, 16, 32 и т.д. Объяснение происходит по схеме:
Если N = 2 = 21 , то уравнение принимает вид: 2i = 21, отсюда i = 1.
Если N = 4 = 22, то уравнение принимает вид: 2i = 22, отсюда i = 2 и т.д.
В общем случае, если N = 2k, где k – целое число, то уравнение принимает вид 2i= 2k и, следовательно, i = k.
Кибернетический (алфавитный) подход к измерению информации.
Изучаемые вопросы:
- Что такое алфавит, мощность алфавита.
- Что такое информационный вес символа в алфавите.
- Как измерить информационный объем текста с алфавитной точки зрения.
- Что такое байт, килобайт, мегабайт, гигабайт.
- Скорость информационного потока и пропускная способность канала.
Рассматриваемый в этой теме подход к измерению информации является альтернативным к содержательному подходу, обсуждавшемуся ранее. Здесь речь идет об измерении количества информации в тексте (символьном сообщении), составленном из символов некоторого алфавита. К содержанию текста такая мера информации отношения не имеет. Поэтому такой подход можно назвать объективным, т.е. независящим от воспринимающего его субъекта.
Алфавитный подход – единственный способ измерения информации, который может применяться по отношению к информации, циркулирующей в информационной технике, в компьютерах.
Опорным в этой теме является понятие алфавита. Алфавит – это конечное количество символов, используемых для представления информации. Число символов в алфавите называется мощностью алфавита. В основном содержании базового курса алфавитный подход рассматривается лишь с помощью равновероятного приближения. Это значит, что допускается предложение о том, что вероятности появления всех символов алфавита в любой позиции в тексте одинаковы. Разумеется, это не соответствует реальности и является упрощающем предположением.
Минимальная мощность алфавита, пригодного для передачи информации = 2. Такой алфавит называется двоичным алфавитом. Информационный вес символа в двоичном алфавите легко определить. Поскольку 2i = 2, то i = 1 бит. И так, один символ двоичного алфавита несет один бит информации.
Бит – основная единица измерения информации. Кроме нее используются и другие единицы. Следующая по величине единица – байт. Байт вводится как информационный вес символа из алфавита мощностью 256. Поскольку 256 = 28, то 1 байт = 8 бит.
Представляя ученикам более крупные единицы: килобайт, мегабайт, гигабайт – нужно обратить внимание на то, что мы привыкли приставку «кило» воспринимать, как увеличение в 1000 раз. В информатике это не так. Килобайт больше байта в 1024 раза, а число 1024 = 210. Так же относится и «мега» по отношению к «кило» и т.д. Тем не менее часто при приближенных величинах используют коэффициент 1000.
В рамках углубленного курса учитель может изложить алфавитный подход в более адекватном варианте, без допущения равновероятности символов.
Многие учебники содержательную линию «Информация и информационные процессы начинают одинаково, с того, что понятие «Информация» стало одним из фундаментальных понятий в современной науке. Наряду с понятиями «вещество», «энергия», «пространство» и «время». Оно составляет основу научной картины мира.
2.3. Методика решения задач по темам раздела «Информация»
Задачи по теме «Измерение информации. Содержательный подход» связаны с использованием уравнения 2i = N. Возможны два варианта решения задачи:
1) N, найти i;
2) i, найти N.
В случаях, когда N равно целой степени двойки, желательно, чтобы ученики выполняли вычисления «в уме». Как уже говорилось выше, полезно запомнить ряд целых степеней числа 2 хотя бы до 210. В противном случае следует использовать таблицу решения уравнения2i = N, в которой рассматриваютсязначения N от 1 до 64.
Для основного уровня изучения базового курса предлагаются задачи, связанные с сообщениями о равновероятных событиях. Ученики должны это понимать и обязательно качественно обосновывать, используя термин «равновероятные события».
Пример 1.
Сколько бит информации несет сообщение о том, что из колоды в 32 карты достали даму пик?
Решение: При случайном вытаскивании карт из перемешанной колоды ни одна из карт не имеет преимущества быть выбранной по сравнению с другими. Следовательно, случайный выбор любой карты, в том числе и дамы пик – событие равновероятное. Отсюда следует, что неопределенность знаний о результате вытаскивания карты равна 32 – числу карт в колоде. Если i- количество информации в сообщении о результате вытаскивания одной карты (дамы пик), то имеем уравнение:
2i = 32.
Поскольку 32 = 25 , то, следовательно, i = 5 бит.
На тему данной задачи учитель может предложить еще несколько заданий. Например: сколько информации несет сообщение о том, что из колоды карт достали карту красной масти? (1 бит, так как красных и черных карт одинаковое количество).
Сколько информации несет сообщение о том, что из колоды карт достали карту бубновой масти? (2 бита, так как всего в колоде четыре масти и количество карт в них равные).
Пример 2.
Проводится две лотереи: «4 из 32» и «5 из 64». Сообщение о результатах какой из лотерей несет больше информации?
Решение: У этой задачи есть «подводный камень», на который может натолкнуться учитель. Первый путь решения тривиальный: вытаскивание любого номера из лотерейного барабана – события равновероятные. Поэтому в первой лотереи количество информации в сообщение об одном номере равно 5 бит (25 = 32), а во второй – 6 бит (26 = 64). Сообщение о четырех номерах в первой лотерее несет 5 * 4 = 20 бит. Следовательно, сообщение о результатах второй лотереи несет больше информации, чем о результатах первой.
Но возможен и другой путь рассуждения. Представьте себе, что вы наблюдаете за розыгрышем лотереи. Выбор первого шара производится из 32 шаров в барабане. Результат несет 5 бит информации. Но второй шар будет выбираться уже из 31 номера, третий – из 30 номеров, четвертый – из 29. Значит, количество информации, которое несет второй номер, находится из уравнения: 2i = 31. Используя таблицу решения этого уравнения, находим: i = 4,95420 бит, для третьего номера: 2 i = 30; i = 4,90689 бит, для четвертого номера: 2 i = 29; i = 4,85798 бит. В сумме получаем: 5 + 4,95420 + 4,85798 + 4,90689 = 19,71907 бит. Аналогично и для второй лотереи. Конечно, на окончательном выводе такие подсчеты не отразятся. Можно было вообще, ничего не вычисляя, сразу ответить, что второе сообщение несет больше информации чем первое. Но здесь интересен сам путь вычислений с учетом «выбывания участников».
Последовательность событий в этом случае не является независимой друг от друга (кроме первой). Это, как мы увидели, отражается в различии информативности сообщении о каждом из них. Первый (тривиальный) вариант решения задачи получен в предположении независимости событий и является в таком случае неточным.
В условиях задач по теме «Измерение информации. Алфавитный подход» связываются между собой следующие величины: мощность символьного алфавита – N; информационный вес символа – i; число символов в тексте (объем текста) – К; количество информации, заключенной в тексте (информационный объем текста) – I. Кроме того, при решении задач требуется знать связь между различными единицами информации: бит, байт, Кбайт, Мбайт, Гбайт.
Задачи, соответствующие уровню минимального содержания базового курса, рассматривают лишь приближение равновероятного алфавита, т.е. допущение того, что появление любого символа в любой позиции текста – равновероятно. В задача для углубленного уровня обучения используется более реальное предположение о неравновероятности символов. В таком случае, появляется еще один параметр – вероятность символа (р).
Пример 3.
Два теста содержат одинаковое количество символов. Первый текст составлен в алфавите мощностью 32 символа, второй – мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?
Решение: В равновероятном приближении информационный объем текста равен произведению числа символов на информационный вес одного символа:
I = K*i
Поскольку оба текста имеют одинаковое число символов (К), то различия информационных объемов определяется только разницей в информативности символов алфавита (i). Найдем i1 для первого алфавита и i2 для второго алфавита:
2i1 = 32, отсюда i1 = 5 бит;
2i2 = 64, отсюда i2 = 6 бит.
Следовательно, информационные объемы первого и второго текстов будут равны:
I1 = К*5 бит, I2 = К*6 бит.
Отсюда следует, что количество информации во втором тексте больше, чемв первом в 6/5, или в 1,2 раза.
Задачи по теме «Информация»
1. Представление информации.
1. Предположим, что на «марсианском» языке выражение lotdomay означает кот съел мышь; maysi – серая мышь; rodo – он съел. Как написать на «марсианском» языке «серый кот»?
Ответ: lotsi.
2. Фраза на некотором языке «Каля маля» в переводе на русский означает «Красное солнышко», «Фаля маля баля» – «Большая красная груша», «Цаля баля» - «Большое яблоко». Как на этом языке записать слова: груша, яблоко, солнышко?
Ответ: «Цаля» – «Яблоко», «Баля» – «Груша», «Каля» – «Солнышко».
3. Что может обозначать запись 18 – 15 с точки зрения продавца в магазине, машиниста электропоезда, ученика на уроке математики?
Ответ: Для продавца – это цена, для машиниста – время отправления и т. п., для ученика – вычитание.
2. Кодирование информации.
1. Дана кодовая таблица азбуки Морзе:
А |
И |
Р. |
Ш |
Б |
Й |
С |
Щ |
В |
К |
Т |
Ъ |
Г |
Л |
У |
Ы |
Д |
М |
Ф. |
Ь |
Е |
Н |
Х |
Э |
Ж |
О |
Ц |
Ю |
З |
П |
Ч |
Я |
Расшифруйте, что здесь написано (буквы отделены друг от друга пробелами).
Ответ: Молодцы!
2. Закодируйте с помощью азбуки Морзе слова: ИНФОРМАТИКА, ДАННЫЕ, АЛГОРИТМ.
3. Дана кодировочная таблица (первая цифра кода – номер строки, вторая – номер столбца)
0 |
1 |
2 |
3 |
4 |
5 |
6 |
7 |
8 |
|
0 |
А |
Б |
В |
Г |
Д |
Е |
Ё |
Ж |
З |
1 |
И |
К |
Л |
М |
Н |
О |
П |
Р |
С |
2 |
Т |
У |
Ф |
Х |
Ц |
Ч |
Ш |
Щ |
Ъ |
3 |
Ы |
Ь |
Э |
Ю |
Я |
_ |
. |
, |
? |
4 |
: |
; |
- |
! |
« |
С помощью этой кодировочной информации зашифруйте фразу: Я УМЕЮ РАБОТАТЬ С ИНФОРМАЦИЕЙ! А ТЫ?
Ответ: 34 35 21 13 05 33 35 17 00 01 15 20 00 20 31 35 18 35 10 14 22 15 17 13 00 24 10 05 10 43 35 00 35 20 30 38
4. Используя кодировочную таблицу, расшифруйте текст: 25 20 15 38 35 03 04 05 38 35 11 15 03 04 00 38
Ответ: ЧТО? ГДЕ? КОГДА?
3. Измерение информации.
1. Определите, какое из сообщений содержит для вас информацию.
-
-
-
-
-
- Dog – это собака (по – английски).
-
Ответ:
2. Какой объем информации содержит сообщение, уменьшающее неопределенность знаний в 4 раза.
Ответ: 2 бита.
3. группа школьников пришла в бассейн, в котором 4 дорожки для плавания. Тренер сообщил, что группа будет плавать на дорожке номер 3. Сколько информации получили школьники из этого сообщения?
Ответ: 2 бита.
4. Сообщение о том, что Петя живет во втором подъезде, несет 3 бита информации. Сколько подъездов в доме?
Ответ: 8 подъездов.
5. Информационное сообщение объемом 1,5 Кбайта содержит 3072 символа. Сколько символов содержит алфавит, при помощи которого было записано это сообщение?
Ответ: 16 символов.
6. Сообщение занимает 3 страницы по 25 строк. В каждой строке записано по 60 символов. Сколько символов в использованном алфавите, если все сообщение содержит 1125 байт?
Ответ: 4 символа.
7. Два сообщения содержат одинаковое количество символов. Количество информации в первом тексте в 1,5 раза больше, чем во втором. Сколько символов содержат алфавиты, с помощью которых записаны сообщения, если известно, что число символов в каждом алфавите не превышает 10 и на каждый символ приходится целое число битов?
Ответ: 3 и 2 символа.
2.4 Информационные процессы
Процесс храниния информации
Изучаемые вопросы:
1)
2)
3)
4)
Понятие «информационные процессы», так же как и понятие «информация», является базовым в курсе информатики. Под информационными процессами понимаются любые действия, выполняемые с нформацией. Примеры информационных процессов, с которыми нам почтоянно приходится иметь дело: получение информации из средств СМИ, обучение, принятие управляющих решений, разработка технического поекта, документооборот на предприятии, сдача экзаменов и многие другие. Суцществуют три основных типа информаицонных процессов, которые как составляющиеприсутствуют в любых другихболее сложных процессах. Это хранение информации, передача информации и обработка информации. Первоначально, следует рассмотреть эти информационные процессы без связки к компьютеру, т.е. приминиельнот к человеку. Затем, при изученииархитектуры ЭВМ, компьютерных информационных технологий речь пойдет о реализации тех же самых информационных процессов с помощью ЭВМ.
С хранением информации связаны следующие понятия: носитель информации (память), внутренняя память, внешняя память, хранилеще информации.
Носитель информации – это физическая среда, непосредственно хранящая информацию. Основным носителем информации для человека является его собственная биологическая память (мозг человека). Собственнуюпамять человека можно назвать оперативной памятью. Здеся слово «оперативный» является синонимом слова «быстрый».
Заученные знания воспроизводятсячеловеком мгновенно. Собственную память мы можем назвать внутренней памятью, поскольку её носитель – мозг – находится внутри нас.
Все прчие виды носителей можно назвать внешними (по отношению к человеку). Виды этих носителей менялись со временем: в древности были камень, дерево, папирус, кожа и пр. Во IIв. нашей эры в Китае была изобретена бумага. Однако, до Европы она дошла лишь в XIв. С тех пор бумага является основным носителем информации. Развитие информационной техники привело к сохданию магнитных, оптических и других современных видов носителей информации.
Хранилище информации – это определенным образом организованная информация на внешних носителях, предназначенная лдя длительного хранения и постоянного использования. Пимерами хранилищ являются архивы документов, библиотеки. Основной информационной единицей хранилища является определенный физическийдокумент: анкета, книга, дало,досье, отчет. Под организацией хранилища понимается наличие определенной структуры, т.е. упорядоченность, клссификация хранимых документов. Такая организация необходима для удобства ведения хранидища: пополнения новыми документами, удалания ненужных, поиска информации и пр.
Знания, сохраненные впамяти человека, можно рассматривать как внутренее хранилище информации, однако его организацию нам понять трудно. Основное свойство человеческой памяти – быстрота, опративность воспроизведения хранящейся в ней информации. но, по сравнинию с внешними хранилищами, человеческая память менее надежна. Человеку свойственно забывать информацию. Хотя психологи утвеждают, что из памяти человека ничего не исчезает, тем нне менее способность к воспроизведению некоторых знаний довольно часто терчется человеком. Именно для более надежного хранения человек использует внешние носители, организует хранилища. Впрочем, известен исторический феномен в этом отношении: у народов древних инков не было письменности. Все свои знания они хранили в собственной памяти. С нашей точки зрения в этом случае трудно возможность достижения высокого уровня цивилизации инков.
Основные свойства хранилища информации: объем хранимой информации, надежность хранения, время доступа (т.е. времяпоиска нужных сведений), наличие защиты информации.
Информацию, хранимую на устройствах компьютерной памяти, принято называть данными. Для описания хранения данных в компьютере используются те же понятия: носитель, хранилища данных, организация данных, время доступа, защита данных. Организованные хранилища данных на устройствах внешней памяти компьютера принято называть базами и банками данных. Подробнее эти вопросы будут обсуждаться в теме «Базы данных и информационные системы».
Процесс обработки информации
Изучаемые вопросы:
1)
2) задачи обработки;
3)
4)
5)
Любой вариант процесса обработки информации происходит по следующей схеме:
Итоговая информация |
Исходная информация |
|
|||||
Об общая схема процесса обработки информации
в любом случае можно говорить о том, что в процессе обработки информации решается некоторая информационная задача, которая предварительно может быть поставлена в традиционной форме: дан некоторый набор исходных данных – исходной информации; требуется получить некоторые результаты – итоговую информацию. Сам процесс перехода от исходных данных результату и есть процесс обработки. Тот объект или субъект, который осуществляет обработку, может быть назван исполнителем обработки. Исполнитель может быть человеком, а может быть специальным техническим устройством, в том числе компьютером.
Обычно обработка информации – это целенаправленный процесс. Для успешного выполнения обработки информации исполнителю должен быть известен способ обработки, т.е. последовательность действий, которую нужно выполнить, чтобы достичь нужного результата. Описание такой последовательности действий в информатике принято называть алгоритмом обработки.
Ученики должны уметь приводить примеры ситуаций, связанных с обработкой информации. такие ситуации можно разделить на два типа.
Первый тип обработки: обработка, связанная с получением новой информации, нового содержания знаний.
К этому типу обработки относится решение математических задач. Например, даны две стороны треугольника и угол между ними, требуется определить все остальные параметры треугольника: третью сторону, углы, площадь, периметр. Способ обработки, т.е. алгоритм решения задачи, определяется математическими формулами, которые должен знать исполнитель.
К первому типу обработки информации относится решение различных задач путем применения логических рассуждений. Например, следователь по некоторому набору улик находит преступника; человек, анализируя сложившиеся обстоятельства, принимает решение о своих дальнейших действиях; ученый разгадывает тайну древний рукописей и т.п.
Второй тип обработки: обработка, связанная с изменением формы, но не изменяющая содержания.
К этому типу обработки информации относится, например, перевод текста с одного языка на другой. Изменяется форма, но должно сохранится содержание. Важным видом обработки для информатики является кодирование. Кодирование – это преобразование информации в символьную форму, удобную для ее хранения, передачи, обработки. Кодирование активно используется в технических средствах с информацией (телеграф, радио, компьютеры).
Другой вид обработки информации – структурирование данных. Структурирование связано с внесением определенного порядка, определенной организации в хранилище информации. расположение данных в алфавитном порядке, группировка по некоторым признакам классификации, использование табличного или графового представления – все это примеры структурирования.
Еще один очень важный вид обработки информации – поиск. Задача поиска обычно формулируется так: имеется некоторое хранилище, информации – информационный массив (телефонный справочник, словарь, расписание поездов и пр.), требуется найти в нем нужную информацию, удовлетворяющую определенным условиям поиска (телефон данной организации, перевод данного слова на другой язык, время отправления данного поезда). Алгоритм поиска зависит от способа организации информации. если информация структурирована, то поиск осуществляется быстрее, можно построить оптимальный алгоритм.
Процесс передачи информации.
Изучаемые вопросы:
1)
2)
3)
4)
5)
6)
7)
Ключевыми понятиями процесса передачи информации являются источник информации, приемник информации, информационный канал. Схематично этот процесс можно изобразить так:
Источник информации |
Приемник информации |
Информационный канал
Схема процесса передачи информации
В таком процессе информация представляется и передается в форме некоторой последовательности сигналов, символов, знаков. Например, при непосредственном разговоре между людьми происходит передача сигналов – речи, при чтении человек воспринимает буквы – графические символы. Передаваемая последовательность называется сообщением. От источника к приемнику сообщение передается через некоторую материальную среду (звук – акустические волны в атмосфере, изображение – световые электромагнитные волны). Если в процессе передачи используются технические средства связи, то их называют каналы передачи информации (информационными каналами). К ним относится телефон, радио, телевидение.
Можно говорить о том, что органы чувств человека выполняют роль биологических информационных каналов. С их помощью информационное воздействие на человека доносится по памяти.
В рамках данной темы ученики должны уметь приводить конкретные примеры процесса передачи информации, определять для этих примеров источник, приемник информации, используемые каналы передачи информации.
При углубленном изучении базового курса информатики следует познакомить учеников с основными понятиями технической теории связи. Американским ученым Клодом Шенноном, одним из основателей теории информации, была предложена схема процесса передачи информации по техническим каналам связи, представленная на рисунке: SHAPE* MERGEFORMAT
Канал связи |
Шум |
Защита от шума |
Кодирующее устройство |
Источник информации |
Декодирующее устройство |
Приемник информации |
Работу такой схемы можно пояснить на знакомом всем процессе разговора по телефону. Источником информации является говорящий человек. Кодирующим устройством – микрофон телефонной трубки, с помощью которого звуковые волны преобразуются в электрические сигналы. Каналом связи является телефонная сеть. Декодирующим устройством является телефонная трубка слушающего человека – приемника информации. Здесь пришедший электрический сигнал превращается в звук.
Связь, при которой передача производится в форме непрерывного электрического сигнала, называется аналоговой связью.
Под кодированием понимается любое преобразование информации, идущий от источника, в форму, пригодную для ее передачи по каналу связи. На заре эры радиосвязи применялся код азбуки Морзе. Текст преобразовывался в последовательность точек и тире и передавался в эфир. Принимавший на слух такую передачу человек должен был суметь декодировать код обратно в текст. Еще раньше азбука Морзе использовалась в телеграфной связи. Передача информации с помощью азбуки Морзе – это пример дискретной связи.
В настоящее время широко используется цифровая связь, когда передаваемая информация кодируется в двоичную форму, а затем декодируется в текст, изображение, звук. Цифровая связь, очевидно, тоже является дискретной.
Термином «шум» называют разного рода помехи, искажающие передаваемый сигнал и приводящий к потере информации. Такие помехи, прежде всего, возникают по техническим причинам: плохое качество линий связи, незащищенность друг от друга различных потоков информации, передаваемой по одним и тем же каналам. Часто, беседуя по телефону, мы слышим шум, треск, мешающие понять собеседника, или на наш разговор накладывается разговор совсем других людей. В таких случаях необходима защита от шума.
В первую очередь применяются технические способы защиты каналов связи от воздействия шумов. Такие способы бывают самые разные, иногда простые, иногда – очень сложные. Например, использование экранированного кабеля вместо «голого» провода; применение разного рода фильтров, отделяющих полезный сигнал от шума и пр.
Клодом Шенноном была разработана специальная теория кодирования, дающая методы борьбы с шумом. Одна из важных идей этой теории состоит в том, что передаваемый по линии связи код должен быть избыточным. За счет этого потеря какой-то части информации при передаче может быть компенсирована. Например, если при разговоре по телефону вас плохо слышно, то повторяя каждое слово дважды, вы имеете больше шансов на то, что собеседник поймет вас правильно.
Однако нельзя делать избыточность слишком большой. Это приведет к задержкам и подорожанию связи. Теория кодирования К. Шеннона как раз и позволяет получить такой код, который будет оптимальным. При этом избыточность передаваемой информации будет минимально – возможной, а достоверность принятой информации – максимальной.
В современных системах цифровой связи часто применяется следующий прием борьбы с потерей информации при передачи. Все сообщение разбивается на порции – блоки. Для каждого блока вычисляется контрольная сумма, которая передается вместе с данным блоком. В месте приема заново вычисляется контрольная сумма принятого блока, если она не совпадает с первоначальной, то передача данного блока повторяется. Так будет происходить до тех пор, пока исходная и конечная суммы не совпадут.
При обсуждении темы об изменении скорости передачи информации можно привлечь прием аналогии. Аналог – процесс перекачки воды по водопроводным трубам. Здесь каналом передачи воды являются трубы. Интенсивность этого процесса характеризуется расходом воды, т. е. количеством литров или кубометров, перекачиваемых за единицу времени. В процессе передачи информации каналами являются технические линии связи. А если информацию непосредственно принимает человек, то его органы чувств – внутренние информационные каналы человека. По аналогии с водопроводом можно говорить об информационном потоке, передаваемом по каналам. Скорость передачи информации – это информационный объем сообщения, передаваемый в единицу времени. Поэтому единицы измерения скорости информационного потока: бит/с, байт/с и др.
Еще одно понятие – пропускная способность информационных каналов – может быть объяснено с помощью «водопроводной» аналогии. Увеличить расход воды через трубы можно путем увеличения давления. Но этот путь не бесконечен. При слишком большом давлении трубу может разорвать. Поэтому техническими условиями использования водопровода всегда определяется предельное давления и как результат – предельный расход воды, который можно назвать пропускной способностью водопровода. Аналогический предел скорости передачи данных имеют и технические линии информационной связи. Причины этому носят так же физический характер.
III.Способы введения тем раздела «информация» на уроках информатики в школе.
3.1. Уроки информатики по темам раздела «информация».
Конспект урока по Информатике в 10-ом классе.
Тема: Предыстория информации.
Цели:
В любой деятельности человек всегда придумывал и создавал самые разнообразные средства, приспособления, орудия труда. Все это облегчало труд, делало его производительней, расширяло возможности людей. Известно, что история материального производства и мировой науки тесно связано с историей развития орудий труда.
Первые вспомогательные средства для работы с информацией появились много позже первых орудий материального труда. Историки утверждают, что расстояние во времени между появлением первых инструментов для физического труда ( топор, ловушка для охоты) и инструментов для регистрации информационных образов (на камне, кости) составляет около миллиона лет!
Следовательно, почти 99% времени существования человека на Земле труд носил только материальный характер.
Уже говорилось о том, что информационную деятельность человека можно разделить на три составляющие: хранение, передачу и обработку. Долгое время средства информационного труда развивались отдельно по этим трем направлениям.
Хранение информации.
История хранения информации в письменной форме уходит в глубь веков. До наших дней в некоторых местах сохранились наскальные письмена древнего человека, выполненные 25 – 20 тыс. лет назад; лунный календарь, выгравированный на кости 20 тыс. лет назад. Для письма также использовались дерево, глина. Многие века письменные документы составлялись на пергаментных свитках. Это было «очень дорогим удовольствием». Пергамент делался из кожи животных. Ее растягивали, чтобы получить тонкие листы. Когда на востоке научились ткать шелк, его стали использовать не только для одежды, но и для письма.
Во втором веке нашей эры в Китае изобрели бумагу. Однако до Европы она дошла в 11 веке. Вплоть до 15 века письма, документы, книги писались в ручную. В качестве инструмента для письма использовались кисточки, перья птиц, позже – металлические перья; изобретались краски, чернила. Книг было очень мало, они считались предметами роскоши.
В середине 15 века немецкий типограф Иоганн Гуттенберг изобрел первый печатный станок. С этого времени началось книгопечатание. На Руси книгопечатанье основал Иван Федоров в середине 16 века. Книг стало значительно больше, быстро росло число грамотных людей.
До сегодняшнего дня лист бумаги остается основным носителем информации. Но у него появились серьезные «конкуренты».
В 19 веке была изобретена фотография. Носителями видеоинформации стали фотопленка и фотобумага.
В 1895 году французы братья Люмьер продемонстрировали в Париже первый в мире кинофильм, используя аппарат собственного изобретения. Этот год считается годом рождения кино.
В нашем веке был изобретен магнитофон. Магнитная запись позволяет сохранять звук и, в частности, информацию, содержащуюся в человеческой речи. И совсем недавно на магнитную ленту научились записывать не только звук, но и изображение: появился видеомагнитофон.
Передача информации.
Первоначально люди пользовались лишь средствами ближней связи: речь, слух, зрение. Развитие письменности породило первые средства дальней связи – почту.
Для быстрой передачи каких то важных сведений часто использовались очень оригинальные идеи. Известно, например, применение на Кавказе костровой связи. Два костровых сигнальщика находились на расстоянии прямой видимости на возвышенных местах или башнях. Когда приближалась опасность (нападали враги), сигнальщики, зажигая цепочку костров, предупреждали об этом население. В 18 веке возник семафорный телеграф, это тоже световая связь, но технически более совершенная.
Очень богатым на открытия в области связи был 19 век. В этом веке люди овладели электричеством, которое породило множество изобретении. Сначала П.Л. Шеллинг в России в 1832 году изобрел электрический телеграф. А в 1837 году американец С. Морзе создал электромагнитный телеграфный аппарат и придумал специальный телеграфный код – азбуку, которая носит его имя.
В 1876 году американец А. Белл изобрел телефон. И наконец, в 1895 году русский изобретатель А.С. Попов открыл эпоху радиосвязи.
Самым замечательным изобретением 20 века в области связи можно назвать телевидение. Освоение космоса привело к созданию спутниковой связи.
Обработка информации.
Теперь познакомимся со средствами обработки информации. Важнейшим видом такой обработки являются вычисления. Появление и развитие счетных инструментов стимулировали развитие земледелия, торговли, мореплавания, астрономии и многих других областей практической и научной деятельности людей.
Не трудно догадаться, что первым счетным средством для человека были его пальцы. Этот инструмент всегда «под рукой»! Кто из вас им не пользовался?
Вот как описывает пальцевой счет туземцев Новой Гвинеи знаменитый русский путешественник Н.Н. Миклухо–Маклай: «… папуас загибает один за другим пальцы руки, причем издает определенный звук, например «бе, бе, бе» … Досчитав до пяти, он говорит «ибон – бе» (рука). Затем он загибает пальцы другой руки, снова повторяет «бе, бе»..., пока не дойдет до «ибон али» (две руки). Затем он идет дальше, приговаривая «бе, бе».., пока не дойдет до «самба – бе» и «самба – али» (одна нога, две ноги). Если нужно считать дальше, папуас пользует пальцами рук и ног кого – нибудь другого».
В пятом веке до нашей эры в Греции и Египте получил распространение абак. Абак – это греческое слово, которое переводится как счетная доска. Вычисления на абаке производились перемещением камешков по желобам на мраморной доске.
Подобные счетные инструменты распространялись и развивались по всему миру. Например, китайский вариант абака назывался суан – пан. «Потомком» абака можно назвать и русские счеты. В Росси они появились на рубеже 16 – 17 веков. И до сих пор в нашей стране счеты можно увидеть не только в музеях.
В начале 17 века шотландский математик Джон Непер ввел понятие логарифма, опубликовал таблицы логарифмов, затем в течение двух веков развивались вычислительные инструменты, основанные на использовании этой математической функции. Логарифмы позволяют свести трудоемкие арифметические операции – умножение и деление, к более простым – сложению и вычитанию. В результате появилась логарифмическая линейка. Этот инструмент до недавнего времени был вычислительным средством инженеров. И лишь в последние годы его вытеснили электронные калькуляторы.
В 1645 году французский математик Блез Паскаль создал первую счетную машину. Машина Паскаля позволяла быстро выполнять сложение многозначных чисел.
Немецкий ученый Лейбниц, развил идею Паскаля, создал механический арифмометр, На котором можно было выполнять все 4 арифметические операции с многозначными числами. Позднее арифмометр многократно совершенствовался, в том числе и русскими изобретателями П.Л. Чебышевым и В.Т. Однером.
Арифмометр был предшественником современного калькулятора – маленького электронно-вычислительного устройства. Сейчас практически у каждого школьника есть калькулятор, который помещается в кармане. Любому академику начала века такое устройство показалось бы фантастическим.
Чарльз Беббидж и его «Аналитическая машина».
Арифмометр, как и простой калькулятор – это средство механизации вычислений. Человек, производя вычисления на таком устройстве, сам управляет его работой, определяет последовательность выполняемых операций. Мечтой изобретателей вычислительной техники было создание считающего автомата, который бы без вмешательства человека производил расчет по заранее составленной программе.
В период между 1820 и 1856 годами Беббидж работал над созданием программно управляемой «аналитической машины». Это было настолько сложное механическое устройство, что проект так и не был реализован.
Можно сказать, что Беббидж опередил свое время. Для осуществления его проекта в ту пору еще не существовало подходящей технической базы. Некоторым ученым современникам Беббиджа его труд казался бесплодным. Однако пророчески звучат сейчас слова самого Чарльза Беббиджа: «Природа научных знаний такова, что малопонятные и совершенно бесполезные приобретения сегодняшнего дня становятся популярной пищей для будущих поколений».
Основные идеи, заложенные в проекте аналитической машины, в нашем веке были использованы конструкторами ЭВМ. Все главные компоненты современного компьютера присутствовали в конструкции аналитической машины: это СКЛАД (в современной терминологии – ПАМЯТЬ), где хранятся исходные числа и промежуточные результаты; МЕЛЬНИЦА (арифметическое устройство), в которой осуществляются операции над числами, взятыми из склада; КОНТОРА (устройство управления), производящее управление последовательностью операций над числами соответственно заданной программе; БЛОКИ ВВОДА исходных данных и ПЕЧАТИ РЕЗУЛЬТАТОВ.
Для программного управления аналитической машиной использовались перфокарты – картонные карточки с пробитыми в них отверстиями (перфорации). Перфокарты были изобретены в начале 19 века во Франции Жозефом М. Жаккардом для управления работой автоматического ткатского станка.
Интересным историческим фактом является то, что первую программу для машины Беббиджа в 1846 году написал Ада Лавлейс – дочь великого английского поэта Джорджа Байрона.
Аналитическая машина Беббиджа – это уже универсальное средство, объединяющее в себе обработку информации, хранение информации и обмен исходными данными и результатами с человеком.
Вопросы и задания:
1. Какие средства хранения информации были первыми?
2. Когда появилось книгопечатание, кто его изобретатель?
3. Какие средства хранения информации изобретены в 19 и 20 веках?
4. Назовите основные технические средства передачи информации в порядке их изобретения.
5. Перечислите основные вычислительные средства в хронологической последовательности их изобретения.
6. Кто, когда и где разработал первый проект автоматической вычислительной машины?
7. Какое влияние проект «аналитической машины» оказал на дальнейшее развитие ВТ?
Конспект урока по Информатике в 10 – ом классе
Тема: «Алфавитный подход к измерениюинформации».
Цель:
А теперь давайте познакомимся с одним из способов измерения информации. Этот способ несвязывают количество информации с содержанием сообщения, и называется он алфавитным подходом.
Проще всего разобраться в этом на примере текста, написанного на каком – нибудь языке. Для нас удобнее, чтобы был русский язык.
Все множество используемых в языке символов будем традиционно называть алфавитом. Обычно под алфавитом понимают только буквы, поскольку в тексте могут встречаться знаки препинания, цифры, скобки, то мы их тоже включим в алфавит. В алфавит также следует включить и пробел (промежуток между словами).
Полное число символов алфавита принято называть мощностьюалфавита. Например, мощность алфавита из русских букви дополнительных символов равна 54.
Представьте себе, что текст к вам поступает последовательно, по одному знаку, словно бумажная ленточка, выползающая из телеграфного аппарата. Предположим, что каждый появляющийся на ленте символ с одинаковой вероятностью может быть любым символом алфавита.
В каждой очередной позиции текста может появиться любой из N символов. Каждый символ несет i бит информации; число i можно определить из уравнения:
2i= N
Вот сколько информации несет один символ в русском тексте! А теперь для того, чтобы найти количество информации во всем тексте, нужно посчитать число символов в нем и умножить на i.
Возьмем с книжной полки, какую – нибудь книгу и посчитаем количество информации на одной ее странице. Пусть страница содержит 50 строк. В каждой строке – 60 символов. Значит, на странице умещается 50x60=3000 знаков. Тогда объем информации будет равен:
5,755x3000=17265 бит.
Следовательно, при алфавитном подходе к измерению информации количество информации от содержания не зависит. Количество информации зависит от объема текста (т.е. от числа знаков в тексте) и от мощности алфавита.
Отсюда следует, например, что нельзя сравнивать информационные объемы текстов, написанных на разных языках, только по объему. У них отличается информационные веса одного символа так как мощности алфавитов разных языков – различные.
Но если книги написаны на одном языке, то понятно, что в толстой книге информации больше, чем в тонкой. При этом содержательная сторона книги в расчет не берется.
Сформулируем правило, как измерить информацию, используя для этого алфавитный подход.
Количество информации, содержащееся в символьном сообщении, равно К xi, где К- число символов в тексте сообщения, а i – информационный вес символа, который находится из уравнения 2i=N, где N – мощность используемого алфавита.
Применение алфавитного подхода удобно прежде всего при использовании технических средств работы с информацией. В этом случае теряют смысл понятия «новые – старые», «понятные – непонятные» сведения. Алфавитный подход является объективным способом измерения информации в отличие от субъективного, содержательного, похода.
Решение задач:
1.Докажите, что, исходя из алфавитного подхода, сообщение любой длины,
использующее односимвольный алфавит содержит нулевую информацию.
Доказательство:
В денном случае N=1, т.к. 2^i=N, то i=0. Т.к. К (количество символов в сообщении) у нас произвольное, обозначим его за x. Для нахождения количества информации в тексте, содержащим x символов (в данном случае) получим выражение: x*0. Это выражение будет равняться 0 при любом значении x. Чтотребовалось доказать.
2.Два текста содержат одинаковое количество символов. Первый текст составлен в алфавите мощностью 32 символа, второй – мощностью 64 символа. Во сколько раз отличается количество информации в этих текстах?
Решение:
1) N=32 32=2^i i=5 бит
2) N=64 64=2^i i=6 бит
3) x5x6x=56
Ответ: в 56 раз.
3.На похвальном листе, вручаемом 1 сентября отличникам, 20 строк, в каждой строке 16 символов. Определите мощность алфавита, используя который составлен похвальный лист, если известно, что он несет 1600 бит информации.
Решение:
a.
b.
c.
Ответ: N=32
4.В книге, написанной на русском языке 68 страниц. На каждой странице 45 строк, в каждой строке 20 символов. Какое количество информации будет утеряно из книги, и какое останется, если в ней вредный ученик Вовочка Сидоров вырвет 2 страницы.
Решение:
1)
2)
3)
4)
5)
Ответ: утеряно 57200 бит, осталось 3247600 бит.
Конспект урока по Информатике в 10–ом классе.
Тема: Различные единицы информации и скорости информационного обмена
Цель:
Удобнее всего измерять информацию, когда мощность алфавита N равна целой степени числа 2. Например, если N=16, то каждый символ несет 4 бита информации потому, что 24=16. А если N=32, то один символ «весит» 5 бит.
Ограничения на максимальную мощность алфавита теоретически не существует. Однако есть алфавит, который можно назвать достаточным. С ним мы скоро встретимся при работе с компьютером. Это алфавит мощностью 256 символов. В таком алфавите можно поместить практически все необходимые символы: латинские и русские буквы, цифры, знаки арифметических операций, скобки, знаки препинания.
В такой алфавит помещают даже значки, с помощью которых можно чертить рамки, таблицы. Их называют знаками псевдографики.
Поскольку 256=28, то один символ этого алфавита «весит» 8 бит. Причем 8 бит информации – это настолько характерная величина, что ей присвоили свое название – байт.
1 байт = 8 бит
Сегодня очень многие люди для подготовки писем, документов, статей, книг используют компьютерные текстовые редакторы. С этими средствами вы подробно познакомитесь несколько позже. Они позволяют включать в текст буквы разных алфавитов, математические значки, дают возможность чертить таблицы.
Компьютерные редакторы работают с алфавитом мощностью 256 символов. Тексы ваших учебников набраны с помощью компьютерного редактора.
В этом случае легко подсчитать объем информации в тексте. Если один символ алфавита несет 1 байт информации, то надо просто сосчитать число символов; полученное значение даст информационный объем текста в байтах.
А теперь сами попробуйте самостоятельно сосчитать: пусть небольшая книжка содержит 150 страниц; на каждой странице – 40 строк, в каждой строке – 60 символов. Значит страница содержит 40 x 60 = 2400 байт информации. Объем всей информации в книге:
2400 x 150 = 360000 байт.
Уже на таком примере видно, что байт – «мелкая» единица. А представьте, что нужно измерить информационный объем научной библиотеки. Какое это будет громадное число в байтах!
В любой системе единиц измерения существуют основные единицы и производные от них.
Для измерения больших объемов информации используются производные от байта единицы.
1 килобайт = 1 Кб = 210 байт = 1024 байта
1 мегабайт = 1 Мб = 210 Кб = 1024 Кб
1 гигабайт = 1 Гб = 210 Мб = 1024 Мб
Прием – передача информации могут происходить с разной скоростью. Например, при общении людей темп речи может иметь большое значение для взаимопонимания. У одних – быстрая (про таких говорят – тараторит). Часто слушателю бывает трудно понять быструю речь. В таком случае можно сказать, что слушатель не успевает принимать передаваемую информацию.
Разные люди обладают разной скоростью чтения. Чем быстрее человек читает, тем больше книг он может прочитать за определенное время. Существует специальные приемы развития высокой скорости чтения.
Количество информации, передаваемое за единицу времени, называется скоростью передачи информации, или скоростью информационного потока.
Эта скорость выражается в таких единицах: бит в секунду (бит/с), байт в секунду (байт/с), килобайт в секунду (Кбайт/с) и т.д.
В результате проведения «эксперимента на себе»: скорость чтения – 37,5 байт/с; скорость речи – 17 байт/с. Конечно эту скорость можно и увеличить, но, очевидно, имеет смысл читать в таком темпе, чтобы слушатели воспринимали смысл ваших слов.
Если передатчиком и приемником информации являются технические устройства (телетайпы, телефаксы, компьютеры), скорость информационного обмена много выше, чем между людьми. Технические средства, связывающие передатчик информации в таких системах, называются каналами связи. Это, например, телефонные линии, кабельные линии, радиоустройства.
Максимальная скорость передачи информации по каналу связи называется пропускной способностью канала.
Одним из самых совершенных на сегодня средств связи являются оптические цветоводы. Информация по таким каналам передается в виде световых импульсов, посылаемых лазерным излучателем. Оптические каналы отличаются от других высокой помехоустойчивостью и пропускной способностью, которая может составлять десятки и сотни мегабайт в секунду. Например, при скорости 50 Мбайт/с в течение одной секунды передается объем информации, приблизительно равный содержанию десяти школьных учебников.
Сейчас мы подведем итоги урока.
1 байт – информационный вес символа алфавита мощностью 28 = 256 символов. 1байт – 8 бит.
Байт, килобайт, мегабайт, гигабайт – единицы измерения информации. Каждая следующая больше предыдущей в1024 (210) раза.
Скорость информационного потока – это количество информации, передаваемое от источника к приемнику за единицу времени.
Пропускная способность информационного канала – это максимальная скорость передачи информации по данному каналу.
Количество информации в тексте, состоящем из К символов, равно К xi, где i – информационный вес одного символа алфавита.
При алфавитном подходе к измерению информации количество информации от содержания не зависит. Количество информации зависит от объема текста и от мощности алфавита.
Домашнее задание: Определите свою скорость восприятия информации при чтении вслух, про себя, при записи текста.
Тема урока: « Информация и знания».
Образовательная цель:
1.
2.
Воспитательная цель:
Воспитание эмоционально – ценностного отношения к миру и себе через формирование чувства ответственности к своему и чужому мнению, труду.
Развивающая цель:
1.
2.
Тип урока: объяснение нового материала.
Средства обучения: учащиеся должны привыкнуть к постоянной работе с наглядностью. Это может быть доска, с правой стороны всегда находятся основные понятия, рассматриваемые на уроке для усвоения, с левой стороны находятся трехуровневые задачи для рассматриваемой темы. Современным средством наглядности является демонстрационный экран с той же информацией.
Задачи изучения |
Основные понятия |
1. Понимать и объяснять смысл основных понятий. Приводить примеры. |
Сведения, информация, знания. |
2. Уметь объяснять взаимосвязь понятий для конкретной ситуации, предложенной в задаче. |
Виды информации (по способу восприятия человеком). |
3. Грамотно использовать в своей речи изученные понятия. |
Виды знаний. |
Этапы освоения понятий, представленных в виде трехуровневых задач, используются на каждом уроке, где вводятся новые понятия, в дальнейшем это способствует переходу данных приемов в автоматический навык при работе с любыми понятиями.
Урок начинается с ключевого вопроса: «Что вы понимаете под словом…»
Для оптимального усвоения понятий, необходимо использовать следующие приемы:
1.
2.
3.
4.
5.
Мы разводим понятия «знания» и «информация» и выстраиваем цепочку.
Сведения – информация – знания.
Учитель подводит учеников к формулировке следующего объяснения информации: «Информацией для человека можно считать сведения, обладающие новизной, объективностью, полезностью и доступностью.
Вместе с учащимися заполняются первые два столбика таблицы:
Сведения |
информация |
знания |
Содержатся в различных источниках: книгах, газетах и др. |
Новое, объективное, достоверное, полезное, доступное, содержащееся в сообщении. |
То, что человек понял, проанализировал, заполнил и применит в будущем. |
Второй ключевой вопрос: «каким образом человек получает различные знания?» Ответ: с помощью органов чувств.
Вводим классификацию информации по способу восприятия:
·
·
·
·
·
Интересный факт, позволяющий ввести следующую классификацию:
·
·
·
Виды информации по способу представления:
1.
2.
3.
4. звуковая – сигналы;
5.
Третий ключевой вопрос,: «почему человеку важно получать информацию?»
После обсуждения ответов заполняется третий столбик – ЗНАНИЯ.
Дальше рассматриваются виды знаний. Задается следующий ключевой вопрос,: «задумывались ли вы над тем какие бывают знания?»
Задания
Попробуйте разделить на две группы следующие сообщения:
1.
2.
3.
4.
С помощьюучителя выбираем деление на фактические знания и умения. Получаем классификацию знаний и заполняемследующую схему:
знания |
Декларативные «Я знаю, что» |
Процедурные «Я знаю, как» |
Конспект урока по Информатики в 7 – ом классе.
Тема: « Информационные процессы».
Образовательная цель:
1.
2.
3.
Воспитательная цель:
Воспитание эмоционально – ценностного отношения к миру и себе через формирование чувства ответственности к своему и чужому мнению, труду.
Развивающая цель:
3.
4.
Тип урока: объяснение нового материала.
Организационная форма урока: эвристическая беседа.
Задачи изучения |
Основные понятия |
1. Понимать и объяснять смысл основных понятий. Приводить примеры. |
Носитель информации, информационный сигнал, язык представления информации. |
2. Уметь анализировать и объяснять взаимосвязь информационных процессов вокруг нас |
Алфавит, синтаксис, семантика языков представления информации. |
3. Грамотно использовать в своей речи изученные понятия |
Информационные процессы. |
Урок надо начинать с активизации изученных на прошлом уроке понятий. Это может быть фронтальный опрос или текст с открытой формой ответа.
Первый вариант |
Второй вариант |
1. То, что после понимания, анализа и запоминания формируется у человека. |
1. Сведения, обладающие новизной, понятностью, аккуратностью, полезностью. |
2. Виды информации по способу восприятия человеком. |
2. Виды информации в форме представления… |
3. Знания, в которых констатируются факты, называется… |
3. Знания, в которых описываются умения, называются… |
4. В книгах, газетах информация представлена в форме… |
4. По радио мы воспринимаем информацию в форме… |
5. Пейзажи Шишкина содержат информацию… |
5. Часы без боя показывают информацию… |
После пятиминутной тестовой работы собрать их и озвучить правильные ответы, при необходимости объяснить их.
Беседу необходимо начать с вопроса:
1. Назовите источники, из которых вы сегодня получили информацию. Заполните таблицу:
Источник информации |
Носитель информации |
Приемник информации |
Книга |
Бумага |
Человек (визуально) |
Учитель |
Звуковая волна |
Человек (визуально) |
Компьютер |
Экран компьютера |
Человек (визуально) |
Термометр |
Вещество (спирт подкрашенный) |
Человек (визуально) |
Кофе с бутербродом на завтрак |
Вещество (воздух) |
Человек (вкус и обоняние) |
Озвучивая при заполнении всех столбиков таблицы, приходим к общей схеме процесса передачи информации.
|
|
Продолжаем анализировать таблицу для перехода к другим информационным процессам. А если из этой цепочки удалить приемник информации, то источник информации будет ее хранителем. А в случае продолжения цепочки человек принял от источника информацию с тем, чтобы с пользой ее применить, значит, он обработал полученную информацию.
2. Какие действия можно производить с информацией?
Все названные действия необходимо сгруппировать в три основных процесса: передавать, хранить, обрабатывать.
3. определите, к какому процессу относится события:
·
·
·
·
·
4. В каком виде человек получает информацию?
В видесигналов и знаков (как видно из таблицы)
5. какое главное условие должно выполняться, чтобы человек понял информацию?
Понимание смысла сигналов и знаков.
Рассмотрим подробнее, что необходимо знать о сигналах и знаках в информатике.
сигнал |
аналоговый |
Цифровой (дискретный) |
Непрерывно и плавно измеряющий свои параметры |
Скачкообразно измеряющий свои параметры |
Большинство аналоговых сигналов понятны человеку, поскольку он их воспринимает органами чувств, которые к этому приспособлены. Но информации становится настолько много, что человек пользуется мощным инструментом – компьютером, который способен хранить, обрабатывать и передавать информацию. Компьютер работает с цифровыми сигналами.
Объяснить на примерах распространение аналоговых и цифровых сигналов и устройств, обрабатывающих эти сигналы. Рассмотреть возможность преобразования сигналов из одного вида в другой на примере модема.
Любые знаки, в том числе и цифры, используемые в кодировании, являются элементом какого – либо языка. Язык – средство представления информации.
Любой язык имеет 3 составляющих: алфавит, синтаксис и семантику. Совместно с учащимися составляем логическую схему взаимосвязи понятий.
1. В следующих примерах выделите источник информации, приемник и носитель и определите, какие сигналы, и знаки при этом передаются:
§
§
§
2. Определите, к какому языку относятся следующие коды:
§
§
§
§
§
§
§
§
3. Приведите примеры аналоговых и дискретных сигналов в быту и технике.
4. Продумайте способ дискретизации цветного графического изображения.
Домашнее задание
Заполните таблицу для следующих примеров по такой схеме:
источник |
носитель |
приемник |
вид сигнала |
1.
2.
3.
4.
5.
6.
7.
Из приведенных ниже вариантов ответов к каждому вопросу необходимо выбрать один правильный.
Вариант I:
1.
-
-
-
2.
-
-
-
3.
-
-
-
4.
-
-
-
5.
-
-
-
6.
-
-
-
7.
-
-
-
8.
-
-
-
Вариант II:
1.
-
-
-
2.
-
-
-
3.
-
-
-
4. Видеомагнитофон, демонстрирующий фильм, информацию в основном...
-
-
-
5.
-
-
-
6.
-
-
-
7.
-
-
-
8.
-
-
-
Заключение
Слово «информация» происходит от латинского слова informatio, что в переводе означает сведение, разъяснение, ознакомление. Понятие «информация» является базовым в курсе информатики, невозможно дать его определение через другие, более «простые» понятия. В геометрии, например, невозможно выразить содержание базовых понятий «точка», «луч», «плоскость» через более простые понятия. Содержание основных, базовых понятий в любой науке должно быть пояснено на примерах или выявлено путем их сопоставления с содержанием других понятий.
В случае с понятием «информация» проблема его определения еще более сложная, т.к. оно является общенаучным понятием. Данное понятие используется в различных науках (информатике, кибернетике, биологии, физике и др.), при этом в каждой науке понятие «информация» связано с различными системами понятий.
Вопрос изучения информации очень интересен и актуален на сегодняшний день. Поэтому, изучив и исследовав данный объект - учебно-воспитательный процесс изучения темы «Информация» в школьном курсе информатики и предмет - методика эффективного изучения данной темы в школьном курсе, мы достигли следующей цели: выявлять наиболее эффективныеметоды изучения данной темы, определить значение необходимости изучения данной темы для соблюдения целостности изучения материала на уроках информатики, выявлять факторы, влияющие на повышение качества ЗУНов по этой теме, решив следующие задачи:
1) раскрывать в теории и практике вопросы, связанные с учебно-воспитательной деятельностью и методикой изучения данной темы;
2) показать эффективность повышения качества знаний учащихся по данной теме при использовании методов и приемов, раскрытых в теоретической части.
Изучив данную проблему в теории и на практике, можно сделать вывод о том, что без изучения данной темы в курсе информатики невозможно осмысленное и комплексное изучение следующих тем курса.
Список литературы
1. Бешенков С.А., Лыскова Ю.В., Ракитина Е.А. Информация и информационные процессы//Образование. – 1998. - №6 – 8.
2. Гейн А.Г., Шолохович В.Ф. Преподавание курса «основы информатики и вычислительной техники» в средней школе: Руководство для учителя – Екатеринбург, 1992.
3. Лесневский А.С. Информатика – 7. Учебное пособие. М.:1996.
4. Семакин И.Г. Информатика: Базовый курс, 7 – 9 – е классы. М.: Лаборатория Базовых Знаний, 1999.
5. Семакин И.Г., Шеина Т.Ю. Преподавание базового курса Информатики в средней школе. – М.: Лаборатория Базовых Знаний, 2000.
6. Угринович Н.Д. Информатика и информационные технологии: Учебное пособие для 10 –11 – х классов. М.: Лаборатория Базовых Знаний, 2001.
7. Изучение основ Информатики и Вычислительной техники: Методическое пособие для учителей и преподавателей средних учебных заведений. В 2ч./ Под ред. А.П. Ершова и В.М. Монахова. – М.: Просвещение, 1985 (ч.1), 1986 (ч.2).
8. Методика преподавания Информатики: Учебное пособие для студентов пед. Вузов/М.П. Лапчик, И.Г. Семакин, Е.К. Хеннер; Под общей ред. М.П. Лапчика. - М.: Издательский центр «Академия», 2001. – 624 с.
9. Информатика: Учебное пособие для студентов пед. Вузов/А.В. Могилев, Н.И. Пак, Е.К. Хеннер; Под ред. Е.К. Хеннера. – 2- е издание, стер. – М.: Издательский центр «Академия», 2003.- 816 с.
10. Задачник – практикум в 2 т./Под ред. И.Г, Семакина, Е.К. Хеннера: Том1. – М.: БИНОМ. Лаборатория знаний, 2003. – 304 с.