Какие числа называются целыми: определение
Целые числа - одно из важнейших понятий математики. С ними мы сталкиваемся повсеместно в реальной жизни. Давайте разберемся, что представляют собой целые числа, какие они бывают и где применяются.
Определение целых чисел
Формально целые числа определяют как расширение множества натуральных чисел, получаемое добавлением к нему нуля и отрицательных чисел. Иными словами, целые числа включают в себя:
- Все натуральные числа (1, 2, 3 и т.д.)
- Нуль
- Все отрицательные числа (-1, -2, -3 и т.д.)
Таким образом, целыми числами являются 0, -5, 38, -152 и т.п. А вот числа с дробной частью, например 2.35 или -7.81, целыми не являются.
Обозначается множество всех целых чисел буквой Z. Оно бесконечно по размеру и не имеет ни наибольшего, ни наименьшего элемента.
Виды целых чисел
Различают несколько видов целых чисел в зависимости от их значения и знака:
- Положительные целые числа - все натуральные числа и нуль (0, 1, 2, 3 и т.д.)
- Отрицательные целые числа - числа, стоящие левее нуля (-1, -2, -3 и т.д.)
- Четные целые числа - числа, кратные 2
- Нечетные целые числа - числа, некратные 2
Целые числа одного вида образуют собственные подмножества внутри множества Z. Например, множество четных целых чисел или множество отрицательных чисел.
Любое целое число либо положительное либо отрицательное либо равно нулю.
Это фундаментальное свойство позволяет классифицировать целые числа и записывать множество Z как объединение трех непересекающихся подмножеств:
- W = {0, 1, 2, 3, ...} - множество натуральных чисел
- -W = {-1, -2, -3, ...} - множество отрицательных целых чисел
- {0} - подмножество, содержащее единственный элемент - нуль
Или в виде формулы:
Z = W ∪ {0} ∪ (-W)
Где ∪ - знак объединения множеств.
История открытия целых чисел
Появление целых чисел как единого математического понятия было поэтапным процессом, связанным с открытием и признанием сначала натуральных чисел, затем нуля и наконец отрицательных чисел.
Натуральные числа известны человечеству с глубокой древности - их использовали для счета и расчетов еще в Древнем Египте и Вавилоне. А основы современной теории натуральных чисел заложил в VI веке до н.э. древнегреческий математик Пифагор.
Число 0 в качестве полноценной цифры было изобретено в Древней Индии предположительно математиком Ариабхатой в V веке. Символ же нуля имел форму круга, что отражало индийские философские представления о цикличности мироздания.
A отрицательные числа в математике впервые стали использоваться в Древнем Китае для обозначения долгов. Например, у кого-то было 5 монет (положительное число), а кто-то должен был 3 монеты (отрицательное число).
В Европе признание отрицательных чисел как полноценных математических объектов произошло гораздо позже - лишь в XIX веке. До этого к ним часто относились с подозрением, считали "ложными" или "абсурдными".
Признание отрицательных чисел в Европе
Несмотря на давнее использование отрицательных чисел в Китае, в Европе к ним относились крайне настороженно вплоть до 19 века. Их считали "ложными", "вымышленными" или даже "безумными" числами.
Одним из первых об отрицательных числах в Европе упомянул итальянский математик Фибоначчи в книге "Книга абака" в 1202 году. Но воспринимал он их скорее как математическую абстракцию.
В середине 16 века немецкий математик Михаэль Штифель включил отрицательные числа в свою "Полную арифметику". Однако широкого признания его идеи тогда не получили.
Причины неприятия отрицательных чисел
Так почему же отрицательные числа столь долго не находили понимания в Европе? Основными причинами этого были:
- Непонимание, как может существовать число меньше нуля, если нуль уже обозначает полное отсутствие чего-либо
- Отсутствие наглядных жизненных примеров использования отрицательных чисел (в отличие от положительных)
- Трудность выполнения арифметических операций с отрицательными числами в уме и на бумаге
Из-за этих концептуальных трудностей укоренилось мнение, что отрицательных чисел просто "не существует" в реальности. Лишь развитие абстрактного математического мышления позволило по-новому взглянуть на них.
Роль отрицательных чисел в математике
Хотя изначально отрицательные числа и воспринимались многими с подозрением, со временем математики осознали их важность для решения многих задач. Какие же преимущества давало использование отрицательных чисел?
- Позволило сформулировать общие правила арифметических операций для любых целых чисел
- Упростило решение уравнений, особенно кубических и квартических
- Дало более гибкий математический аппарат для работы с величинами, которые могут принимать как положительные, так и отрицательные значения
В конечном итоге понимание необходимости отрицательных чисел пришло вместе с развитием алгебры, математического анализа и созданием комплексных чисел.
Принятие отрицательных чисел
Хотя первые упоминания об отрицательных числах в Европе относятся еще к 13 веку, окончательно они были признаны лишь в 19 столетии. Во многом этому поспособствовали работы великих математиков той эпохи:
- Жан Д'Аламбер ввел понятие «противоположных чисел»
- Леонард Эйлер сформулировал общие правила действий с отрицательными числами
- Жозеф Фурье использовал отрицательные числа в разложении функций в ряды
- Карл Гаусс ввел понятие комплексных чисел, объединивших отрицательные и мнимые числа
Благодаря работам этих и других выдающихся математиков отрицательные числа прочно вошли в математический оборот и стали неотъемлемой частью понятия целого числа.
Применение отрицательных чисел
После признания отрицательных чисел началось активное внедрение их в различные области математики и естествознания. Какие числа называются целыми?
В математическом анализе отрицательные числа используются при исследовании функций, принимающих и положительные, и отрицательные значения. Например, \sin x или \cos x.
В физике с помощью отрицательных чисел удобно описывать силы притяжения и отталкивания, обратные направления движения, отрицательную температуру.
В финансовых расчетах отрицательные числа соответствуют долгам, а положительные - активам компании или человека. Так определяется чистая прибыль или убыток.
Отрицательные числа и нуль в программировании
В программировании целые числа, включая отрицательные, используются повсеместно. Например, при работе с циклами или индексами в массивах и списках.
Часто отрицательные числа сигнализируют об ошибке. К примеру, код возврата -1 из функции говорит, что произошла непредвиденная ситуация.
А нуль в программировании играет роль особого статуса или состояния "ничего":
- Пустой указатель имеет значение NULL или 0
- Начальное значение счетчика цикла равно 0
- При делении на 0 происходит аварийное завершение программы
Какие числа называются натуральными целыми
Натуральными целыми числами называют все положительные целые числа и нуль, то есть подмножество {0, 1, 2, 3...} внутри множества целых чисел Z.
Иногда говорят "целое неотрицательное число", подразумевая под этим натуральное число. Хотя строго говоря, сюда же относится и нуль.
Таким образом, натуральные числа являются "чисто положительной" частью целых чисел. Использование термина "натуральный" подчеркивает их применение для счета и измерения дискретных величин.
Какие числа называются целыми рациональными
Все целые числа одновременно являются рациональными числами, так как представимы в виде обыкновенной дроби с числителем и знаменателем, равным 1. Например:
- 3 = 3/1
- -5 = -5/1
- 0 = 0/1
Поэтому понятия "целое рациональное число" и просто "целое число" эквивалентны. Говорить "целое рациональное число" имеет смысл, только если хотим подчеркнуть, что речь идет о подмножестве всех рациональных чисел.
Похожие статьи
- Устное народное творчество: виды, жанры произведений и примеры
- Парные и непарные, звонкие и глухие, мягкие и твердые согласные звуки в русском языке
- Как узнать свое тотемное животное по дате рождения
- Известные русские химики: список, достижения, открытия и интересные факты
- Закрыть гештальт - что это? Значение и особенности
- Тригонометрия с нуля: основные понятия, история
- Институты ФСБ России, порядок приема