Информационные процессы
Цель: Научиться решать логические задачи такого вида.
Саша решил навести порядок в своей маленькой библиотеке и обнаружил, что отсутствуют пять его любимых книг. Он не нашёл второй том Джека Лондона, самоучитель «Учим Python, делая крутые игры», сборник рассказов «Приключения Шерлока Холмса», и оказалось, что нет одной из семи книг про Гарри Поттера («Гарри Поттер и философский камень»), кроме того, отсутствует книга со стихами Есенина.
Саша подумал и вспомнил следующее.
Он давал книги только Алексею, Тимуру, Тане, Кате и Алине.
Давал он каждому из них по одной книге и только после возврата предыдущей.
Тимур брал у него книгу «Учим Python, делая крутые игры», но давно отдал, и сейчас эта книга находится не у Тимура.
Алексею нравятся стихи Есенина и рассказы Джека Лондона, другими авторами книг из Сашиной библиотеки Алексей не интересуется.
Катя не любит читать ничего, кроме литературы стиля фэнтези.
Таня не читает ничего, кроме детективов и книг о компьютерах.
Алина — почитатель поэзии, другой литературы для неё не существует.
После того как Саша проанализировал всю информацию, он отправил ребятам сообщения, чтобы они в ближайшее время вернули ему книги. У кого какая книга находится?
Кейс 1
Проанализируй ситуацию с точки зрения описанных в ней информационных процессов.
Кратко опиши конкретные информационные процессы.
Процесс(ы) сбора информации: …
Процесс(ы) передачи информации: …
Процесс(ы) обработки информации: …
Процесс(ы) хранения информации: …
Кейс 2
Помоги Саше справиться с его проблемой: реши логическую задачу.
Прочитай этот материал, который содержит историю жизни интересного человека. И ты узнаешь, какое отношение он имеет к информатике.
Бит — это наименьшая единица данных, с которой может оперировать вычислительная машина. А кто придумал бит?
БИТ (от англ. BInary digiT — двоичный разряд) — минимальная единица измерения энтропии и количества передаваемой или хранимой информации. В вычислительной технике соответствует одному двоичному разряду, принимающему значение «0» или «1» («ложь» или «истина»).
В 1948 году американский инженер, математик, криптоаналитик и основатель теории информации Клод Элвуд Шеннон в своей статье «Математическая теория связи» впервые предложил использовать для обозначения наименьшей единицы измерения информации слово «бит». Он использовал сокращение словосочетания «BInary digiT» (двоичный разряд), которое использовал американский математик Джон Тьюки.
Клод Шеннон родился в 1916 году в штате Мичиган, умер в 2001 году. Его отец, бизнесмен и судья, был потомком первых поселенцев штата Нью-Джерси, обладал математическим складом ума, всего в жизни добился сам. Мать Шеннона, дочь эмигрантов из Германии, преподавала иностранные языки и была директором школы.
Любовь к науке Шеннону привил его дедушка, изобретатель, придумавший стиральную машину и ещё много полезной техники для фермеров. Интересный факт: известный изобретатель Томас Эдисон, разработавший лампу накаливания и усовершенствовавший телеграф, являлся дальним родственником Шеннона и был его кумиром.
В детстве Клод увлекался конструированием механических и автоматических устройств. Он создавал модели самолётов и подводной лодки, а также сделал беспроводной телеграф, чтобы общаться со своим другом.
В 1932 году Шеннон поступил в Мичиганский университет, где обучался математике и одновременно приобрёл специальность «Электротехника». После окончания университета Клод устроился на работу в Массачусетском технологическом институте (MIT), который до сих пор является одним из самых престижных технических учебных заведений США и мира. Шеннон работал там оператором вычислительного механического устройства (аналогового компьютера).
Во время Второй Мировой войны Шеннон работал в научно-исследовательском центре Bell Laboratories, в отделении математики и разрабатывал криптографические системы (системы шифрования), обеспечивающие переговоры премьер-министра Великобритании Черчилля и президента США Рузвельта через океан. Работа в области криптографии привела Шеннона в дальнейшем к созданию теории информации, применяющейся в современных высокотехнологичных системах связи.
В 1940 году Клод Шеннон защитил диссертацию, в которой доказал, что работу переключателей и реле в электрических схемах можно представить с помощью булевой алгебры (алгебры логики), которую изобрёл английский математик Джордж Буль.
Шеннон ввёл понятие информационной энтропии, являющейся мерой неопределённости информации. Это означает, что количество информации понимается как мера уменьшения неопределённости нашего знания.
Шеннон дал второе определение понятию «бит» — это количество информации, полученной при ответе на вопрос при существовании только двух вариантов ответа — «да» или «нет».
Всемирно известным Шеннона сделала опубликованная в 1948 году статья «Математическая теория связи». В ней Шеннон изложил идеи, являющиеся основой современных теорий обработки, передачи и хранения информаци