В 1797 году была издана знаменитая "Теория аналитических функций" Лагранжа, полное название которой читалось "Теория аналитических функций, содержащая начала дифференциального исчисления, освобожденные от всякого рассмотрения бесконечно малых, исчезающих, пределов и флюксий и сведенные к алгебраическому анализу конечных величин". Давайте попробуем представить альтернативную реальность, в которой основания математического анализа излагались бы без применения теории пределов. Как бы это выглядело? Предлагаю обсудить эту тему.

Комментарии
02.08.2009 в 18:31

Рыцарь со страхом и упрёком. // NULLA DIES SINE DIEI IRAE // N'Ayez pas peur de soufrir le futur nous attend. // Утка подгорает!
dmd2001, это весьма затруднительно и неэффективно. Определение предела самое простое, что есть в высшей математике. Даже метод дихотомии на него опирается. Можно начать с интегрального исчисления, но и оно упрется в пределы. Анализ конечных величин -- это машинная арифметика, где набор чисел счётный и конечный. Но там не выполняются свойства коммутативности и транзитивности для операций сложения и умножения.

Скажем так: без понятия предела нет оснований оперировать множеством действительных чисел. Насчёт рациональных тоже такое подозрение имеется.

В линейной алгебре не используются понятия предела. Но это скромный кусочек всей математики.