Главная страница
Навигация по странице:

  • Интегральное исчисление. Исторический очерк.

  • Ньютон и Лейбниц — рождение противоречий.

  • Эйлер. Понятие об интегральной сумме.

  • Проблема двойных и тройных интегралов.

  • Список литературы

  • математика. Исследование динамики средствами интегрального исчисления


    Скачать 64.2 Kb.
    НазваниеИсследование динамики средствами интегрального исчисления
    Дата27.10.2022
    Размер64.2 Kb.
    Формат файлаdocx
    Имя файламатематика.docx
    ТипРеферат
    #757070

    АНОО ВО

    «Сибирский институт бизнеса и информационных технологий»

    РЕФЕРАТ
    Дисциплина: Высшая математика, часть 2

    Тема: «Исследование динамики средствами интегрального исчисления»

    2022 
    Содержание


    Введение 4

    Интегральное исчисление – это раздел математического анализа, в котором изучаются интегралы, их свойства, способы вычисления и приложения. Вместе с дифференциальным исчислением оно составляет основу аппарата математического анализа. 4

    Интегральное исчисление возникло из рассмотрения большого числа задач естествознания и математики. Важнейшие из них – физическая задача определения пройденного за данное время пути по известной, но, быть может, переменной скорости движения и значительно более древняя задача вычисления площадей и объемов геометрических фигур 4

    Центральным в интегральном исчислении является понятие интеграла, которое, однако, имеет две различные трактовки, приводящие соответственно к понятиям неопределенного и определенного интегралов. 4

    Определение простого определенного интеграла по Лейбницу опиралось на понятие о бесконечно малых величинах, от которого математики XVIII века стремились освободить математический анализ. Это обстоятельство также способствовало укреплению точки зрения Ньютона. 15

    Это хорошо подтверждается тем, как Леонард Эйлер использовал понятие об интегральной сумме. Он не возражал против приближенного вычисления определенных интегралов при помощи соответствующих интегральных сумм, но рассматривать определенный интеграл как предел интегральной суммы не представлялось возможным, потому что этом случае все слагаемые интегральной суммы становились бесконечно малыми, то есть, с точки зрения Эйлера, были нулями. 15

    Быстро пробежимся по основным вехам эйлеровской биографии. В 1963 г. 23-летний Пауль Эйлер окончил курс теологии в Базельском университете. Но потому что учёных теологов было в те годы больше, чем требовалось, он получил официальную должность священника сиротского дома в Базеле лишь в 1701 г. 19 апреля 1706 г. пастор Пауль Эйлер женился на дочери священника. А 15 апреля 1707 г. у них родился сын, названный Леонардом. Начальное образование будущему учёному дал отец, учившийся некогда математике у Якоба Бернулли. Отец готовил старшего сына к духовной карьере, но, несмотря на это, однако занимался с ним и математикой — как в качестве развлечения, так и для развития логического мышления. Мальчик увлёкся математикой, стал задавать отцу вопросы один сложнее другого. 15

    Когда у Леонардо проявился интерес к учёбе, его направили в Базельскую латинскую гимназию — под надзор бабушки. 15

    20 октября 1720 г. 13-летний Леонард Эйлер стал студентом факультета искусств Базельского университета. Мечта отца о том, что бы Эйлер стал священником сбывалась. Но любовь к математике, блестящая память и отличная работоспособность сына направили молодого учёного по иному пут 15

    Он легко усваивал учебные предметы, отдавая предпочтение математике. И естественно, что способный мальчик вскоре обратил на себя внимание Бернулли, который посоветовал юноше читать математические мемуары, а по субботам пригласил приходить к нему домой, чтобы совместно разбирать прочитанное. В доме своего учителя Эйлер подружился с сыновьями Бернулли — Николаем и Даниилом, также увлечённо занимавшимися математикой. А 8 июня 1724 г. 17-летний Леонард Эйлер произнёс по- латыни великолепную речь о сравнении философских воззрений Декарта и Ньютона — и был удостоен учёной степени магистра (в XIX в. в большинстве университетов Западной Европы ученая степень магистра была заменена степенью доктора философии). 16

    Эйлер просто не мог не заниматься математикой или её приложениями. В 1735 г. Академия получила задание выполнить срочное и очень громоздкое астрономическое вычисление. Эйлер взялся выполнить работу за 3 дня — и справился самостоятельно, в то время, как группа признанных академиков просила на эту работу три месяца. Перенапряжение не прошло бесследно: Эйлер заболел и потерял зрение на правый глаз. Но талантливый учёный отнёсся к несчастью с величайшим спокойствием: «Теперь я меньше буду отвлекаться от занятий математикой», — философски заметил он. 16

    До этого Эйлера знал лишь узкий круг учёных. Мировую славу ему принесло двухтомное сочинение «Механика, или наука о движении, в аналитическом изложении «, изданное в 1736 г, где Эйлер блестяще применил методы математического анализа к решению проблем движения в пустоте и в сопротивляющейся среде. «Тот, кто имеет достаточные навыкив анализе, сможет всё увидеть с необычайной лёгкостью и без всякой помощи прочитает работу полностью», — заканчивает Эйлер своё предисловие к книге. 16



    Введение




    Интегральное исчисление – это раздел математического анализа, в котором изучаются интегралы, их свойства, способы вычисления и приложения. Вместе с дифференциальным исчислением оно составляет основу аппарата математического анализа. Интегральное исчисление возникло из рассмотрения большого числа задач естествознания и математики. Важнейшие из них – физическая задача определения пройденного за данное время пути по известной, но, быть может, переменной скорости движения и значительно более древняя задача вычисления площадей и объемов геометрических фигур

    Центральным в интегральном исчислении является понятие интеграла, которое, однако, имеет две различные трактовки, приводящие соответственно к понятиям неопределенного и определенного интегралов.


    Интегральное исчисление. Исторический очерк.

    Понятие интеграл непосредственно связано с интегральным исчислением – разделом математики, занимающимся изучением интегралов, их свойств и методов вычисления. Вместе с дифференциальным исчислением интегральное исчисление составляет основу математического анализа.

    Истоки интегрального исчисления относятся к античному периоду развития математики и берут начало от метода исчерпывания, разработанного математиками Древней Греции.

    Метод исчерпывания - это набор правил для вычисления площадей и объёмов, разработка которых приписывается Евдоксу Книдскому. Дальнейшее развитие метод получил в работах Евклида, а особым искусством и разнообразием применения метода исчерпывания славился Архимед.

    Типичная схема доказательств методом исчерпывания выглядела следующим образом. Для определения величины A строилась некоторая последовательность величин С1, С2, …, Сn, … такая, что



    Предполагалось также известным такое B, что



    и что для любого целого K можно найти достаточно большое n, удовлетворяющее условию:



    Где D – постоянно. После громоздких рассуждений из последнего выражения удавалось получить:



    Как видно из приведённой схемы метод был основан на аппроксимации рассматриваемых объектов ступенчатыми фигурами или телами, составленными из простейших фигур или пространственных тел (прямоугольников, параллелепипедов, цилиндров и т.п., обозначенных последовательностью С1, С2, …, Сn, …). В этом смысле метод исчерпывания можно рассматривать как античный интегральный метод.

    Кризис и упадок древнего мира привёл к забвению многих научных достижений. О методе исчерпывания вспомнили лишь в XVII веке. Это было связано с именами Исаака Ньютона , Готфрида Лейбница, Леонарда Эйлера и ряда других выдающихся учёных, положивших основу современного математического анализа.

    В конце XVII и в XVIII веке все возрастающие запросы практики и других наук побуждали ученых максимально расширять область и методы исследований математики. Понятия бесконечности, движения и функциональной зависимости выдвигаются на первое место, становятся основой новых методов математики.

    В конце XVII и в XVIII веке в математике и механике были получены классические результаты фундаментального значения. Основным здесь было развитие дифференциального и интегрального исчисления, теории дифференциальных уравнений, вариационного исчисления и аналитической механики.

    Основные понятия и теория интегрального и дифференциального исчислений, прежде всего связь операций дифференцирования и интегрирования, а также их применения к решению прикладных задач были разработаны в конце XVII века, но основывались на идеях, сформулированных в начале XVII веке великим математиком и астрономом Иоганом Кеплером.

    В ноябре 1613 года королевский математик и астролог австрийского двора И. Кеплер праздновал свадьбу. Готовясь к ней, он приобрёл несколько бочек виноградного вина. При покупке Кеплер был поражён тем, что продавец определял вместимость бочки, производя одно единственное действие - измеряя расстояние от наливного отверстия до самой дальней от него точки днища. Ведь такое измерение совершенно не учитывало форму бочки! Кеплер сразу увидел, что перед ним интереснейшая математическая задача - по нескольким измерениям вычислить вместимость бочки. Размышляя над этой задачей, он нашёл формулы не только для объёма бочек, но и для объёма самых различных тел: лимона, яблока, айвы и даже турецкой чалмы. Для каждого из тел Кеплеру приходилось создавать новые, зачастую очень хитроумные методы, что было крайне неудобно. Попытка найти достаточно общие, а, главное, простые методы решения подобных задач и привела к возникновению современного интегрального счисления. Но это уже была заслуга совсем другого математика.

    Трудно найти другое имя, которое оказало бы столь сильное влияние на историю мировой науки и культуры, как Исаак Ньютон. Известный математик и историк науки Б. Л. Ван-дер-Варден пишет в своей книге “Пробуждающаяся наука”: “Каждый естествоиспытатель безусловно согласится, что механика Ньютона есть основа современной физики. Каждый астроном знает, что современная астрономия начинается с Кеплера и Ньютона. И каждый математик знает, что самим значительным н наиболее важным для физики отделом современной математики является анализ, в основе которого лежат дифференциальное и интегральное исчисления Ньютона. Следовательно, труды Ньютона являются основой огромной части точных наук нашего времени”. И не только наук: “Математика и техника влияют даже на нашу духовную жизнь, и настолько. что мы редко можем представить это себе полностью. Вслед за необычайным взлётом, которое пережило и XVII веке естествознание, последовал неизбежно рационализм XVIII века, обожествление разума, упадок религии... Кто отдает себе отчет в том, - спрашивает автор, - что с исторической точки зрения Ньютон является самой значительной фигурой XVII века?”

    Исаак Ньютон родился в 1643 году. Мальчик посещал сначала сельскую школу, а в двенадцать лет его отправили учиться в ближайший город. Директор школы обратил внимание на способного мальчика и уговорил мать Ньютона отправить сына учиться в Кембриджский университет. Ньютон был принят туда в качестве бедного студента, обязанного прислуживать бакалаврам, магистрам и студентам старших курсов.

    Кафедру математике в Кембридже занимал тогда молодой блестящий учёный Исаак Барроу. Он скоро стал не только учителем, но и другом Ньютона, а спустя несколько лет уступил своему великому ученику кафедру математики. К этому времени Ньютон получил уже степени бакалавра и магистра. В 1665-1667 годах Ньютон начал работать над созданием математического аппарата, с помощью которого можно было бы исследовать и выражать законы физики. Ньютон первый построил дифференциальное и интегральное исчисления (он назвал его методом флюксий). Это сразу позволило решать самые разнообразные, математические и физические, задачи. До Ньютона многие функции определялись только геометрически, так что к ним невозможно было применять алгебру и новое исчисление флюксий. Ньютон нашел новый общий метод аналитического представления функции - он ввел в математику и начал систематически применять бесконечные ряды.

    Поясним эту идею Ньютона. Известно, что любое действительное число можно представить десятичной дробью - конечной или бесконечной. Так. например:



    Это значит, что любое число a можно представить в виде:



    где N - целая часть, а a1, a2, ... an, ... могут принимать одно из значений 0, 1, 2, 3, 4, 5, 6, 7, 8, 9. По аналогии с таким представлением чисел Ньютон предположил, что любая функция от x, например   , может быть представлена как бесконечный многочлен или ряд, расположенный уже не по степеням   , а по степеням x:



    где a1, a2, ... an, ...- коэффициенты, которые каждый раз должны быть определены. Примером такого ряда может служить известная нам геометрическая прогрессия:



    Представление функции с помощью ряда очень удобно. С помощью рядов, как писал Ньютон, “удается преодолеть трудности, в другом виде представляющиеся почти неодолимыми”.

    Одновременно с Ньютоном к аналогичным идеям пришёл другой выдающийся учёный - Готфрид Вильгельм Лейбниц.

    Готфрид Вильгельм Лейбниц родился в Германии в г. Лейпциге в 1646 г. Любознательный мальчик уже 6 лет вел интересные беседы по истории со своим отцом, профессором Лейпцигского университета. К 12 годам он хорошо изучил латинский язык и увлёкся древнегреческим. Особенно его интересовали древние философы, и он мог подолгу размышлять о философских теориях Аристотеля или Демокрита. В 15 лет Лейбниц поступает и Лейпцигский университет, где усердно изучает право и философию. Он очень много читает, среди его любимых книг - книги Р. Декарта, Г. Галилея, II. Кеплера и Д. Кампанеллы.

    Свои колоссальные знания по математике Лейбниц приобрел самоучкой. Через три года, окончив университет, Лейбниц покинул Лейпциг. Он был обижен отказом ученого совета университета присвоить ому степень доктора прав. Отказ объяснили тем. что Лейбниц был... слишком молод!

    Началась жизнь, полная напряженного труда и многочисленных путешествии. Легко себе представить, как неудобны были путешествовать в неуклюжих каретах по тряским дорогам Европы тех времен. Лейбниц умел не терять времени даром - много удачных мыслей пришло ему и голову именно во время этих продолжительных поездок. Лейбниц отличался исключительной способностью быстро “входить” и задачу и решать ее наиболее общим способом. Размышляя над философскими и математическими вопросами, Лейбниц убедился, что самым надежным средством искать и находить истину в науке может стать математика. Всю спою сознательную жизнь он стремился выразить законы мышления, человеческую способность думать и виде математического исчисления. Для этого необходимо, учил Лейбниц, уметь обозначать любые понятия или идеи определенными символами, комбинируя их в особые формулы, и сводить правила мышления к правилам в вычислениях по этим символическим формулам. Заменяя oбычные слова четко определенными символами, Лейбниц стремился избавить наши рассуждения от всякой неопределенности и возможности ошибиться самому или вводить в заблуждение других. Если, мечтал Лейбниц. между людьми возникнут разногласия, то решаться они будут не в длинных и утомительных спорах. а так, как решаются задачи или доказываются теоремы. Спорщики возьмут в руки перья и, сказав: “Начнем вычислять” - примутся за расчеты.

    Как уже отмечалось, Лейбниц одновременно с Ньютоном и независимо от него открыл основные принципы дифференциального и интегрального исчислений. Теория приобрела силу после того, как Лейбницем и Ньютоном было доказано, что дифференцирование и интегрирование - взаимно обратные операции. Об этом свойстве хороню знал и Ньютон. Но только Лейбниц увидел здесь ту замечательную возможность, которую открывает применение символического метода.

    Любой человек, изучив небольшое число правил действия с символами, обозначающими операции дифференцирования и интегрирования, становится обладателем мощного математического метода. В наше время такие символы операций называют операторами. Операторы дифференцирования d( ) и интегрирования   действуют на функции, “перерабатывая” их в другие, точно вычисляемые функции. Лейбниц разрабатывает особую алгебру действий с этими операторами. Он доказывает, что обычное число, а можно выносить за знак оператора:



    Одинаковые операторы можно выносить за скобку:



    или:



    Сокращенно все перечисленные свойства можно выразить соотношением:



    где: и - числа.

    Операторы. которые обладают таким свойством. называются линейными. Теория линейных операторов, которую с таким успехом начал развивать, Лейбниц,. в современной математике является хорошо разработанной и полезной в приложениях теорией.

    Многократное применение операторов можно принимать как степень оператора, например, для d( ):



    То, что основные операторы математического анализа являются взаимно обратными Лейбниц подчёркивал своей символикой, утверждая, что в d(x) и   также взаимно обратны, как степени и корни в обычном исчислении. Употребляя так же обозначение, аналогичное обозначению a-1 числа, обратного a, причём произведение aa-1=1. Обозначая операторы   или наоборот:



    и понимая под их произведением последовательное их применение, имеем:



    т. е. произведение есть “единица”, не меняющая функцию.

    Однако, в подходе Ньютона-Лейбница крылось серьёзное противоречие.

    Лейбниц и его последователи - братья Бернулли, Лопиталь и другие - трактовали дифференциалы как бесконечно малые разности обычных конечных величин, как тогда говорили - “реальных” величин “низшей” математики. Поэтому они обращались с теми и другими одинаково и в исчислении применяли к первым те же приемы, которые справедливы при действиях со вторыми. Вместе с тем выяснилось, что таким образом трактуемым бесконечно малым присуще свойство, противоречащее одному основному свойству основных конечных величин: если А — конечная величина, а — бесконечно малая, то, чтобы результат исчисления получался совершенно точным, оказалось необходимым проводить вычисления в предположении, что А+=А.

    Дифференциальное исчисление, значение которого для развития науки и техники было вне сомнений, оказалось в парадоксальном положении: чтобы его методами получить точный результат, надо было исходить из ошибочного утверждения.

    Ньютон пытался обосновать дифференциальное исчисление на законах механики и понятии предела. Но ему не удалось освободить свое исчисление флюксий от недостатков, присущих дифференциальному исчислению Лейбница. В практике вычисления Ньютон, как и Лейбниц, применял принцип отбрасывания бесконечно малых.

    Такая непоследовательность позволила назвать дифференциальное исчисление Лейбница–Ньютона мистическим. Этим в первую очередь подчеркивалось, что Лейбниц и Ньютон вводили в дифференциальное исчисление бесконечно малые величины метафизически, сразу полагая их существующими, без выяснения их возникновения и развития и без анализа природы их специфических свойств.

    Попытки построить анализ бесконечно малых и теорию рядов в полном соответствии с основными понятиями и истинами “низшей” математики с самого начала к успешным результатам не привели. Поэтому Лейбниц и его последователи пытались оправдать принципы анализа бесконечно малых путем сравнения бесконечно малой с песчинкой, которой можно пренебречь при вычислении высоты горы, посредством ссылок на вероятность и т. п.
    Ньютон и Лейбниц — рождение противоречий.
    Однако в подходе Ньютона-Лейбница крылось серьёзное противоречие.
    Лейбниц и его последователи — братья Бернулли, Лопиталь и другие — трактовали дифференциалы как бесконечно малые разности обычных конечных величин, как тогда говорили — «реальных» величин «низшей» математики. Поэтому они обращались с теми и другими одинаково и в исчислении применяли к первым те же приемы, которые справедливы при действиях со вторыми. Вместе с тем выяснилось, что таким образом трактуемым бесконечно малым присуще свойство, противоречащее одному основному свойству основных конечных величин: если А — конечная величина, а a — бесконечно малая, то, чтобы результат исчисления получался совершенно точным, оказалось необходимым проводить вычисления в предположении, что А+a =А.
    Дифференциальное исчисление, значение которого для развития науки и техники было вне сомнений, оказалось в парадоксальном положении: чтобы его методами получить точный результат, надо было исходить из ошибочного утверждения.
    Ньютон пытался обосновать дифференциальное исчисление на законах механики и понятии предела. Но ему не удалось освободить свое исчисление флюксий от недостатков, присущих дифференциальному исчислению Лейбница. В практике вычисления Ньютон, как и Лейбниц, применял принцип отбрасывания бесконечно малых.
    Такая непоследовательность позволила назвать дифференциальное исчисление Лейбница-Ньютона мистическим. Этим в первую очередь подчеркивалось, что Лейбниц и Ньютон вводили в дифференциальное исчисление бесконечно малые величины метафизически, сразу полагая их существующими, без выяснения их возникновения и развития и без анализа природы их специфических свойств.
    Попытки построить анализ бесконечно малых и теорию рядов в полном соответствии с основными понятиями и истинами «низшей» математики с самого начала к успешным результатам не привели. Поэтому Лейбниц и его последователи пытались оправдать принципы анализа бесконечно малых путем сравнения бесконечно малой с песчинкой, которой можно пренебречь при вычислении высоты горы, посредством ссылок на вероятность и т. п.
    Другая попытка была предпринята в конце XVIII века. Известный немецкий математик Вессель предложил оставить анализ бесконечно малых в анализе в качестве «полезных вспомогательных функций». Однако, такая трактовка широкого распространения не получила — математики знали механическое и геометрическое истолкование dx и dy.
    Примерно с последней четверти XVIII века область приложений математического анализа начинает значительно перекрывать границы его обычного приложения в механике и геометрии. Ещё быстрее развертывается этот процесс в первой четверти XIX века.
    Математики пытались сначала решать новые задачи методами, разработанными классиками XVIII века — Эйлером, Даламбером, Лагранжем и другими. Однако, вскоре выяснилось, что методы классиков недостаточны, что надо развивать новые, более общие и сильные методы. Выяснилось также, что недостаточность методов классиков нередко связана с узостью трактовки основных понятий, с «изгоняемым» понятием о бесконечно малом, с «исключениями», которые раньше оставались в тени.
    Поясним сказанное одним примером.
    Ньютон и Лейбниц разработали две трактовки понятия обычного определенного интеграла.

    Ньютон трактовал определенный интеграл как разность соответствующих значений первообразной функции:

    ,

    где F`(x)=f (x).

    Для Лейбница определенный интеграл был суммой всех бесконечно малых дифференциалов.

    .

    Первая трактовка отвечала технике вычисления определенных интегралов при помощи первообразной подынтегральной функции, вторая — потому, что в приложениях определенный интеграл появлялся как предел известного вида суммы (интегральной суммы).

    Примерно до последней четверти XVIII века первая трактовка понятия определенного интеграла занимала господствующее положение. Этому способствовали два обстоятельства.

    С момента установления правил дифференцирования всех элементарных функций в начале XVIII века, началась успешная разработка методов нахождения их первообразных (рациональных, отдельных классов иррациональных и трансцендентных функций). Благодаря этому точка зрения Ньютона вполне отвечала развитию эффективных алгоритмов интегрального исчисления.

    Непосредственное вычисление как предела интегральной суммы столкнулось с многими трудностями. Это обстоятельство укреплению точки зрения Лейбница, естественно, не способствовало.

    Эйлер. Понятие об интегральной сумме.
    Определение простого определенного интеграла по Лейбницу опиралось на понятие о бесконечно малых величинах, от которого математики XVIII века стремились освободить математический анализ. Это обстоятельство также способствовало укреплению точки зрения Ньютона. Это хорошо подтверждается тем, как Леонард Эйлер использовал понятие об интегральной сумме. Он не возражал против приближенного вычисления определенных интегралов при помощи соответствующих интегральных сумм, но рассматривать определенный интеграл как предел интегральной суммы не представлялось возможным, потому что этом случае все слагаемые интегральной суммы становились бесконечно малыми, то есть, с точки зрения Эйлера, были нулями. Быстро пробежимся по основным вехам эйлеровской биографии. В 1963 г. 23-летний Пауль Эйлер окончил курс теологии в Базельском университете. Но потому что учёных теологов было в те годы больше, чем требовалось, он получил официальную должность священника сиротского дома в Базеле лишь в 1701 г. 19 апреля 1706 г. пастор Пауль Эйлер женился на дочери священника. А 15 апреля 1707 г. у них родился сын, названный Леонардом. Начальное образование будущему учёному дал отец, учившийся некогда математике у Якоба Бернулли. Отец готовил старшего сына к духовной карьере, но, несмотря на это, однако занимался с ним и математикой — как в качестве развлечения, так и для развития логического мышления. Мальчик увлёкся математикой, стал задавать отцу вопросы один сложнее другого.

    Когда у Леонардо проявился интерес к учёбе, его направили в Базельскую латинскую гимназию — под надзор бабушки.

    20 октября 1720 г. 13-летний Леонард Эйлер стал студентом факультета искусств Базельского университета. Мечта отца о том, что бы Эйлер стал священником сбывалась. Но любовь к математике, блестящая память и отличная работоспособность сына направили молодого учёного по иному пут Он легко усваивал учебные предметы, отдавая предпочтение математике. И естественно, что способный мальчик вскоре обратил на себя внимание Бернулли, который посоветовал юноше читать математические мемуары, а по субботам пригласил приходить к нему домой, чтобы совместно разбирать прочитанное. В доме своего учителя Эйлер подружился с сыновьями Бернулли — Николаем и Даниилом, также увлечённо занимавшимися математикой. А 8 июня 1724 г. 17-летний Леонард Эйлер произнёс по- латыни великолепную речь о сравнении философских воззрений Декарта и Ньютона — и был удостоен учёной степени магистра (в XIX в. в большинстве университетов Западной Европы ученая степень магистра была заменена степенью доктора философии). Эйлер просто не мог не заниматься математикой или её приложениями. В 1735 г. Академия получила задание выполнить срочное и очень громоздкое астрономическое вычисление. Эйлер взялся выполнить работу за 3 дня — и справился самостоятельно, в то время, как группа признанных академиков просила на эту работу три месяца. Перенапряжение не прошло бесследно: Эйлер заболел и потерял зрение на правый глаз. Но талантливый учёный отнёсся к несчастью с величайшим спокойствием: «Теперь я меньше буду отвлекаться от занятий математикой», — философски заметил он. До этого Эйлера знал лишь узкий круг учёных. Мировую славу ему принесло двухтомное сочинение «Механика, или наука о движении, в аналитическом изложении «, изданное в 1736 г, где Эйлер блестяще применил методы математического анализа к решению проблем движения в пустоте и в сопротивляющейся среде. «Тот, кто имеет достаточные навыкив анализе, сможет всё увидеть с необычайной лёгкостью и без всякой помощи прочитает работу полностью», — заканчивает Эйлер своё предисловие к книге.
    Леонард Эйлер начал прокладывать аналитический путь развития точных наук, применения дифференциального и интегрального исчисления для описания физических явлений, который требовал дух времени.

    Концепция Ньютона и до последней четверти XVIII века сталкивалась с трудностями. В этот период встречались элементарные функции, первообразные которых не могут быть выражены через элементарные функции, математики знали и некоторые несобственные интегралы, в том числе и расходящиеся. Но такого рода факты были единичными и установившейся эффективной концепции интеграла нарушить не могли.
    Положение изменилось лишь в последней четверти XVIII и, особенно, в начале XIX века.
    С 70-х годов XVIII века решение задач аналитической механики, физики и других дисциплин потребовало продолжения развития понятия и употребления определенного интеграла, особое значение приобретают двойные и тройные интегралы (Эйлер, Лагранж, Лаплас и др.).
    К этому времени великие идеи Ньютона и Лейбница были только-только опубликованы, и современный математический анализ только начал создавался. Эти идеи породили мощные методы, которые стали применять во всех отраслях точного знания. Применение это шло рука об руку с развитием самого анализа, часто указывая пути, по которым должно развиваться новое исчисление.
    Проблема двойных и тройных интегралов.
    Эта эпоха математического творчества оказалась единственной по своей интенсивности, а Эйлер — одним из немногих по своей продуктивности учёным. Его творения: «Введение в анализ бесконечно малых», «Основания дифференциального исчисления» и «Основания интегрального исчисления» стали первыми трактатами, которые объединили уже обширный, но вместе с тем разрозненный материал нового анализа в цельную науку. В них была разработана та основа современного анализа, которая сохранилась и до нашего времени.

    Исследование методов вычисления двойных и тройных интегралов показала, что вычисление этих интегралов методом вычисления обычного определенного интеграла — при помощи неопределенного, невероятно трудно, поэтому математики сохранили концепцию Ньютона только на словах, а на деле, при решении задач точных наук, приняли сторону Лейбница. Так они вычисляли соответствующие интегральные суммы (в прямоугольных, цилиндрических и сферических координатах) и находили их пределы.

    Таким образом, поиск методов вычисления новых видов определенного интеграла показал, что обыкновенный, двойной и т. д. определенный интегралы должны быть обоснованы сами по себе независимо от понятия неопределенного интеграла. Но каждое слагаемое любой интегральной суммы является бесконечно малой величиной. Ставился вопрос не только о легализации ранее «изгоняемого» понятия бесконечно малого, но и о раскрытии его реального содержания и о соответствующем его применении. Как говорилось ранее, чтобы всё это сделать, появилась необходимость преодолеть, обобщить, развить традиционное, каким было признано Эйлерово, толкование функции и понятия предела.

    Коши — решение парадокса существования конечных сумм из бесконечно малых слагаемых.

    Возник естественный вопрос о возможности существования пределов интегральных сумм, имеющих бесконечно малые слагаемые. Так в первой четверти XIX века, избегаемое ранее, понятие бесконечно малой оказалось необходимым и для изучения и для сопоставления свойств непрерывных и разрывных функций.

    Основополагающих результатов добился в развитии этого вопроса Коши. «Между многими понятиями, — указывал Коши, — тесно связанными со свойствами бесконечно малых, следует поместить понятие о непрерывности и прерывности функций». Здесь же Коши дал определение непрерывности функции, которое более чем ясно подтвердило ясность этого его утверждения.

    Новая постановка задач обоснования математического анализа дала понять, что вопрос не только в признании и применении бесконечно малых — это делали и раньше! —, но прежде всего в научном истолковании их содержания и обоснованном на этом использовании их в алгоритмах математического анализа.

    Но чтобы этого добиться, необходимо было преодолеть господствовавшее в XVIII веке узкое толкование понятия предела, разработать новую общую теорию пределов.

    Исследование разрывных функций, а также сравнение их с функциями непрерывными заставило признать то, что ранее считалось невозможным: предел, к которому стремиться последовательность значений функции, при стремлении аргумента в некоторой точке может оказаться отличным от значения функции в этой точке.

    Получается, что предел не всегда является конечным значением переменной, но во всех случаях предел является числом, к которому переменная неограниченно стремится. Следовательно, dx и dy не необходимо нули или «мистически» актуально бесконечно малые; бесконечно малая — это переменная, имеющая пределом нуль, причем факт не является противоречием или парадоксом.

    Вторую ограничительную тенденцию в принятой ранее трактовке понятия предела также преодолел Коши. Он признал, что переменная может приближаться к своему пределу не только монотонно, но и колеблясь- принимая порой значения, равные её пределу. Эта формулировка придала теории Коши необходимую общность и исключительную гибкость.

    Заключение
    Математики до сих пор следуют пути, намеченному Огюстеном Луи Коши, но лишь с теми усовершенствованиями, которые внёс во второй половине XIX века К. Вейерштрасс.

    Работы Коши и Вейерштрасса завершили создание классического математического анализа, подведя итог многовековому развитию интегрального исчисления.


    Список литературы:


    1. Большакова А. А. Три кризиса в развитии математики. Дипломная работа; Астрахань: АГПИ, 1996.

    2. Детская энциклопедия для среднего и старшего возраста. Т.2; М.: Просвещение, 1965.

    3. Математическая энциклопедия. Ред. Виноградова. Т.2; М.: Сов. Энциклопедия, 1979.

    4. Фихтенгольц Г. М. Основы математического анализа. Т.1; М.: Наука, 1968.



    написать администратору сайта