Ноль в математике занимает особое место среди чисел. С его помощью обозначается полное отсутствие количества, пустое место в записи многозначных чисел — иными словами, ноль выражает ничто, в то же время он играет весьма важную роль в вычислениях — и в этом заключается парадокс нуля.
Концепция нуля появилась еще в глубокой древности — в Месопотамии — вместе с позиционной системой. Ее появление было истинной революцией в математике — вместо изобретения новых символов для увеличивающего ряда чисел символы стали располагать в определенном порядке, где значение символа зависит от его положения. Если в одном из столбцов не было числа, на его месте ставился знак в виде горизонтального клина — в этом заключалось различие, например, между числами 35 и 305.
При всем своем удобстве концепция нуля далеко не сразу была признана — в частности, древнегреческая цивилизация долго сопротивлялась ей. Это было связано с господством геометрии в древнегреческой математике (концепция «ничто» не может иметь определенного пространственного положения). Зато в индийской культуре, где понятие небытия играло важную роль, концепция нуля была принята и развита — именно в Индии в IX веке для обозначения «ничто» начали использовать символ в виде пустого круга. От индийских мыслителей эту концепцию переняли арабские математики, а Европе ее представил итальянский математик Фибоначчи в XIII столетии — в «Книге абака». Окончательное утверждение нуля в европейской математике произошло относительно поздно — к концу XV века. Во многом это было связано с тем, что ноль долгое время считался удобным для мошенничества (например, долг можно увеличить путем приписывания нуля).
По ряду свойств ноль отличается от всех прочих чисел:
Это единственное число, которое не может являться положительным либо отрицательным, но он отделяет первые от вторых.
В записи многозначных чисел с помощью 0 обозначается пустой (отсутствующий) разряд, например, 408 означает, что в составе данного числа четыре сотни и восемь единиц, а десятков нет.
К категории натуральных чисел ноль не относится — ведь счет предметов начинается не с него, а с единицы, в то же время он является целым числом.
Обозначая «ничто», ноль в то же время являет собой определенную сущность, с которой возможны математические действия.
Таким образом, свойства нуля в математике парадоксальны.
Правила умножения на ноль
С нулем производятся практически все математические действия — но по особым правилам. Число не изменяется, если прибавить к нему нуль (2 + 0 = 2) или вычесть его (3 — 0 = 3). Если вычесть из нуля положительное число, получится отрицательное с таким же модулем (0 — 7 = -7). Вычитая отрицательное число из нуля, получают в итоге число положительное (0 — (-9) = 9).
Умножая на 0 любое число (или наоборот) неизменно получают ноль в результате. Это правило объясняется, во-первых, переместительным законом умножения (результат его не изменяется в случае перестановки множителей), во-вторых, тем, что умножение представляет собой сложение одинаковых чисел. Например, 5×0 может быть представлено как 0×5, что подразумевает 0 + 0 + 0 + 0 + 0. Сумма пяти нулей (как и любого количества таковых) всегда дает ноль, следовательно, и результат умножения с его участием будет таким же.
Делить ноль можно на любое число (исключая сам ноль), и при этом тоже неизбежно получается ноль, ведь деление — действие, обратное умножению. Со свойствами умножения на ноль связан и тот факт, что при возведении нуля в любую положительную степень в результате получается ноль. Возведение любого числа в нулевую степень дает единицу.
Почему нельзя делить на ноль
Единственное действие, которое невозможно произвести с нулем — это деление на него. Почему делить на ноль нельзя? Школьные учителя обычно объясняют это на простых конкретных примерах — скажем, невозможно разделить двадцать тетрадей на ноль учеников, но такое бытовое объяснение несостоятельно: в приведенной ситуации (при отсутствии учеников) количество тетрадей попросту останется прежним. Истинное объяснение лежит в области свойств как самого нуля, так и деления.
Деление обратно умножению — иными словами, чтобы разделить число a на число b, следует подобрать такое число, при умножении которого на b получится a. Таким образом, чтобы разделить некое число, например, 5 — на ноль, придется найти такое, которое при умножении на 0 даст в результате 5. Это не представляется возможным, поскольку при умножении на 0 любых чисел неизменно получается 0 — следовательно, деление на ноль тоже невозможно.
Хотя деление на ноль запрещено, деление самого ноля на ноль все же рассматривается в математике — в качестве особого случая, считающегося неопределенностью. В данном случае не работает обычное правило, согласно которому любое число при делении на себя дает единицу. При умножении результата деления на делитель должно получаться делимое. В данном случае делимое — это ноль, такой результат получается при умножении на ноль (делитель) любого числа, поэтому возникает бесконечное множество решений, и 0/0 расценивается как неопределенность.
Автор
Евгения Позднякова
Учитель математики и физики. Закончила Курганский государственный педагогический университет, опыт преподавания — более трёх лет.