Åpne hovedmenyen

Derivasjon er en operasjon i matematikk der en bestemmer den deriverte av en funksjon. For en funksjon av én variabel f(x) er den deriverte definert ved

Områder i analyse
Differensialligninger
Funksjonalanalyse
Funksjoner av flere variable
Matematisk analyse

Kontinuitet
Grenseverdier
Følger
Rekker
Derivasjon
Integrasjon

Komplekse funksjoner
,

dersom grenseverdien eksisterer. Den deriverte er et mål for endringen i funksjonsverdier f(x) når den frie variabelen x endres. Geometrisk er den deriverte et uttrykk for stigningstallet til tangenten til funksjonen.

For funksjoner av flere variable kan en definere ulike typer deriverte, som partiellderivert, Gataux-derivert, Fréchet-derivert, totalderivert og gradient.

Studiet av derivasjon og differensialer kalles differensialregning. Analysens fundamentalteorem sier at derivasjon og integrasjon er inverse operasjoner, og en bruker derfor ofte betegnelsen differensial- og integralregning. Dette fagfeltet er svært viktig både for matematisk analyse og for anvendt matematikk.

InnledningRediger

 
Animasjonen illustrerer at den deriverte er lik stigningstallet til tangenten

Grunnbegrepet i differensialregning er den deriverte til en funksjon.

Med geometrisk terminologi kan den deriverte beskrives som en generalisering av stigningen til en funksjon. Det geometriske begrepet stigning er opprinnelig bare definert for lineære funksjoner, altså hvis grafen er en rett linje. Den deriverte til en vilkårlig funksjon   i et punkt   definerer man som stigningen til tangenten til   i punktet  .

Med aritmetisk terminologi angir den deriverte i et punkt   til en funksjon   hvor stor den lineære andelen av endringen til   er når   endres med et vilkårlig lite lite tall  . For den eksakte formuleringen av dette, brukes begrepet grenseverdi.

HistorieRediger

 
Gottfried Wilhelm Leibniz
 
Isaac Newton

Problemstillingen som differensialregningen betrakter var kjent som tangentproblemet helt siden antikken. Den nærliggende løsningen var å approksimere tangenten ved hjelp av sekanter over et positivt, men vilkårlig lite intervall. Den tekniske vanskeligheten bestod av å regne med slike infinitesimalt små intervallengder. Pierre de Fermat løste rundt 1640 tangentproblemer for polynomer. Her beskrev han den deriverte, men uten å betrakte grenseverdier, og uten å forklare hva den matematiske rettferdiggjøringen for fremgangsmåten hans var. På samme tid valgte Descartes en algebraisk fremgangsmåte, hvor han anbrakte en sirkel nær kurven. Her vil sirkelen skjære kurven i to punkter, med mindre sirkelen og kurven tangerer hverandre. Da var det mulig å bestemme stigningen til tangenten for visse kurver.

På slutten av 1600-tallet lyktes det Isaac Newton og Gottfried Wilhelm Leibniz uavhengig av hverandre å utvikle fungerende fremgangsmåter uten selvmotsigelser. Newton og Leibniz angrep problemet fra forskjellige vinkler. Mens Newton nærmet seg problemet via momentanhastighetsproblemet, prøvde Leibniz å løse det geometrisk ved hjelp av tangentproblemet. Arbeidene deres tillot en abstraksjon fra den rent geometriske beskrivelsen, og regnes derfor som begynnelsen av matematisk analyse. De ble først og fremst kjent gjennom boka til adelsmannen Guillaume François Antoine, marquis de L'Hôpital, som fikk privatundervisning av Johann Bernoulli og publiserte dennes forskning innen analyse. De derivasjonsreglene som er best kjent i dag, er først og fremst basert på verkene til Leonhard Euler, som satte sitt preg på funksjonsbegrepet. Newton og Leibniz arbeidet med vilkårlig små tall, men som er større enn null. Dette ble kritisert av samtidige som ulogisk, eksempelvis av Biskop Berkeley i det polemiske skriftet The analyst: or a discourse addressed to an infidel mathematician. differensialregningen ble likevel, tross den herskende usikkerheten, konsekvent videreutviklet, i første rekke på grunn av de tallrike anvendelsene i fysikk og andre områder av matematikken. Symptomatisk for den tiden var prisutskrivningen til Det prøyssiske vitenskapsakademiet i 1784:

 … Den høyere geometri benytter ofte uendelig store og uendelig små størrelser; imidlertid har de gamle

lærde omhyggelig unngått det uendelige, og enkelte berømte analytikere i vår tid bekjenner at begrepene er selvmotsigende. Akademiet forlanger altså at man forklarer hvordan så mange sanne satser kan oppstå av en selvmotsigende antagelse, og at man angir et sikkert og klart grunnbegrep som kan erstatte det uendelige, uten

å gjøre utregningene for vanskelige eller lange …
 

Først på begynnelsen av 1800-tallet lyktes det Augustin Louis Cauchy å gi differensialregningen den logiske stringensen vi er vant til i dag, i det han gikk bort fra de infinitesimale størrelsene, og definerte den deriverte som grenseverdien til stigningen av sekantene. Den definisjonen av grenseverdier som brukes i dag ble formulert av Karl Weierstraß på slutten av 1800-tallet.

DefinisjonRediger

InnledningRediger

Utgangspunktet for definisjonen av den deriverte er tilnærmingen til tangentstigningen gjennom sekantstigningen. Vi søker stigningen til en funksjon   i et punkt  . Deretter regner vi ut stigningen til sekanten til   over et endelig intervall:

Sekantstigning =  .

Sekantstigningen er altså kvotienten til to differanser; den blir derfor også kalt differansekvotient. Med den forkortede notasjonen   for   kan man også skrive sekantstigningen som  .

 

Differansekvotienter er velkjente i det daglige liv, for eksempel som gjennomsnittshastighet:

„På reisen fra Augsburg til Flensburg var jeg klokken 9:43 ( ) ved Biebelried-krysset (kilometerstand   = 198 km). Klokken 11:04 ( ) var jeg ved Dreieck Hattenbach (kilometerstand  =341 km). På 1 time og 21 minutter ( ) har jeg dermed tilbakelagt 143 km ( ). Min gjennomsnittshastighet på denne strekningen er altså 143 km/1,35 h = 106 km/h ( ).“

For å regne ut tangentstigningen (i det nevnte eksempelet blir dette altså momentanhastigheten i et punkt), må man la de to punktene som sekanten dras gjennom stadig nærme seg hverandre. Da går både   og   mot null. Kvotienten   forblir derimot normalt endelig. Denne grenseverdien avhenger av følgende definisjon:

Deriverbarhet og den deriverte i et punkt: formell definisjon og notasjonRediger

En funksjon som avbilder et åpent intervall U av de reelle tallene ( ), er deriverbar i   hvis grenseverdien

    (med  )

eksisterer. Denne grenseverdien kalles den deriverte til   med hensyn på   i   og betegnes som

    eller       eller       eller    

Termene   og   kalles differensialer, men har i moderne analyse bare symbolsk betydning. I mange anvendelser (kjerneregelen, integrasjon av mange differensialligninger og integrasjon ved substitusjon) regner man med dem nesten som "normale" variabler. Den nøyaktige, formelle begrunnelsen for dette får man ved teorien om differensialformer. En differensial er også del av den vanlige notasjonen for integraler.

Å skrive den deriverte som kvotienten til to differensialer ble innført av Leibniz. Newton brukte et punkt over den størrelsen som ble derivert, noe som fremdeles brukes i fysikk for derivasjon med hensyn på tid. Notasjonen med apostrof ( ) går tilbake til Lagrange som innførte den i sin bok Théorie des fonctions analytiques i 1797.

I tidens løp ble også den følgende ekvivalente definisjonen oppdaget, som har vist seg nyttigere i mer generelle kontekster med komplekse eller flerdimensjonale funksjoner:
En funksjon er deriverbar i punktet   om det finnes en konstant   slik at

 

Tilveksten til funksjonen   når man bare fjerner seg fra   med en liten verdi  , blir godt tilnærmet ved  . Man kaller den lineære funksjonen   med   derfor også lineariseringen til   i punktet  .

En ytterligere definisjon er: Det finnes en funksjon   som er kontinuerlig i   med   og en konstant  , slik at

 ,

hvor grensen til   er lik null, når   går mot  .

Fordelen til denne formuleringen er at det er enklere å føre beviser, da man ikke må ta noen kvotient med i betraktningen. Denne fremstillingen av den beste lineære tilnærmingen ble konsekvent anvendt allerede av Weierstraß, Henri Cartan og Jean Dieudonné.

Betegner man en funksjon som deriverbar, uten å spesifisere et spesifikt punkt, innebærer dette at funksjonen er deriverbar på ethvert punkt i definisjonsområdet; altså eksisterer en entydig tangent for ethvert punkt på grafen.

En deriverbar funksjon er alltid kontinuerlig; det omvendte gjelder imidlertid ikke. På begynnelsen av 1800-tallet var man fremdeles overbevist om at en kontinuerlig funksjon høyst kunne være ikke-deriverbar i et endelig antall punkter. Bernhard Bolzano konstruerte da som den første matematikeren en funksjon som er overalt kontinuerlig, men ikke deriverbar i noe punkt; dette ble imidlertid ikke allment kjent blant matematikere. I 1860-årene fant Karl Weierstraß en tilsvarende funksjon, og denne gangen vakte oppdagelsen oppsikt. Et kjent eksempel for en kontinuerlig og ikke-deriverbar funksjon er Koch-kurven som ble funnet av Helge von Koch i 1904.

Den deriverte som en funksjonRediger

Den deriverte til en funksjon   i punktet  , betegnet som  , beskriver den lokale atferden til funksjonen i omegnen til  . Vanligvis er ikke   det eneste punktet hvor   er deriverbar. Man kan da forsøke å tilordne til ethvert tall   i definisjonsmengden til   den deriverte i dette punktet (altså  ). På denne måten får man en ny funksjon  , hvis definisjonsmengde er en delmengde av definisjonsmengden til  . Eksempelvis har kvadratfunksjonen   i et vilkårlig punkt   den deriverte  . Dermed er den tilhørende derivasjonsfunksjonen   gitt ved  .

Derivasjonsfunksjonen er normalt en annen enn den opprinnelige funksjonen; det eneste unntaket er eksponentialfunksjonen og dens multipla.

Er den deriverte kontinuerlig, kalles   kontinuerlig deriverbar. Siden rommet av kontinuerlige funksjonen betegnes   kalles rommet av kontinuerlig deriverbare funksjoner  .

Utregning av den deriverteRediger

Utregningen av den deriverte til en funksjon kalles derivasjon; man sier at man deriverer funksjonen.

For å regne ut den deriverte til elementære funksjoner (for eksempel   og  ) holder man seg til definisjonen angitt ovenfor, beregner eksplisitt en differansekvotient og lar så   gå mot null. Riktignok fullfører en typisk matematikkbruker denne utregningen bare et par ganger i løpet av livet. Deretter kjenner han eller hun den deriverte til de viktigste elementære funksjonene utenat, og slår opp den deriverte til andre, ikke fullt så vanlige, funksjoner i en tabell.

Eksempel for den elementære utregningen til en derivertRediger

Vi ønsker å finne den deriverte til  . Vi regner ut differansekvotienten som

 

og finner den deriverte ved å ta grenseverdien når   som

 

Eksempel på en funksjon som ikke er overalt deriverbarRediger

Absoluttverdifunksjonen   er ikke deriverbar i punktet 0:

For alle   gjelder nemlig  , og dermed er

 .

For alle   gjelder derimot  , og dermed er

 .

Da den venstre og høyre grenseverdien ikke stemmer overens, eksisterer ikke grenseverdien. Funksjonen   er dermed ikke deriverbar i punktet vi betrakter. Derimot er funksjonen deriverbar i alle andre punkter.

 

Betrakter man grafen til  , ser man at deriverbarhetsbegrepet innebærer at den tilhørende grafen ikke har noen knekkpunkter.

Et typisk eksempel på kontinuerlige funksjoner som ikke er deriverbare noen steder er nesten alle stiene til brownske bevegelser. Disse blir for eksempel brukt i modellering av aksjekurser.

Eksempel på en funksjon som ikke er overalt kontinuerlig deriverbarRediger

En funksjon er kontinuerlig deriverbar når den deriverte er kontinuerlig. Selv om en funksjon er overalt deriverbar, trenger ikke den deriverte være kontinuerlig. For eksempel er funksjonen

 

deriverbar i ethvert punkt, inklusive  . Den deriverte

 

er derimot ikke kontinuerlig i punktet 0.

DerivasjonsreglerRediger

For å finne den deriverte til sammensatte funksjoner (f.eks.   og  ) bruker man derivasjonsregler for å redusere problemet til å finne den deriverte av kjente elementære funksjoner.

La  ,   og   være reelle, deriverbare funksjoner. La videre   og   være reelle tall. Da gjelder:

Konstante funksjoner
 
Faktorregelen
 
Summeregelen
 
Produktregelen
 
Kvotientregelen eller brøkregelen
 
Potensregelen
 
Kjerneregelen
 
Kombinert kjerne og produktregel
 
 
Inverse funksjoner
Hvis   er en bijektiv funksjon som er deriverbar i   med  , og den inverse funksjonen   er deriverbar ved   så gjelder:
 
Logaritmer
Fra kjerneregelen følger den deriverte til den naturlige logaritmen til en funksjon  :
 
Leibniz’ Regel
 .
Uttrykkene   som opptrer her er Binomialkoeffisienter.

Analysens fundamentalteoremRediger

Den viktigste erkjennelsen Leibniz kom fram til var den at integrasjon og derivasjon henger sammen. Dette formulerte han i analysens fundamentalteorem. Det sier:

Hvis   er et intervall,   er en kontinuerlig funksjon og   er et vilkårlig punkt, så er funksjonen

 

kontinuerlig deriverbar, og dens deriverte er  .

Man får dermed en bruksanvisning for å integrere. Vi ønsker en funksjon, hvis deriverte er integranden. Da gjelder:

 .

MiddelverdisetningenRediger

En annen sentral sats i derivasjonsregning er middelverdisetningen som ble bevist av Cauchy.

La   være en funksjon som er kontinuerlig på et lukket intervall   (med  ). Videre antar vi at   er deriverbar i det åpne intervallet  . Da finnes minst ett punkt  , slik at  .

Deriverte av høyere ordenRediger

Hvis den deriverte til funksjonen   også er deriverbar, kan man definere den andrederiverte eller dobbeltderiverte til   som den deriverte til den førstederiverte. Tilsvarende kan man definere den tredje og fjerde definerte, og så videre.

Den andrederiverte kan tolkes geometrisk som krumningen til grafen. Den har mange fysiske anvendelser. For eksempel er den førstederiverte til en strekning   etter tiden   momentanhastigheten, mens den andrederiverte er akselerasjonen. Fra fysikk kommer skrivemåten   som betegner den deriverte til en funksjon med hensyn på tiden.

Taylorrekker og glatthetRediger

Hvis   er en funksjon som er ( ) ganger kontinuerlig deriverbar på intervallet  , så gjelder den såkalte taylorformelen for alle   og   i  :

 

med det  ’te taylorpolynomet

 

og det ( )’te restleddet

 

En funksjon som er vikårlig mange ganger deriverbar kalles en glatt funksjon. Da en slik funksjon har alle deriverte, kan taylorformelen ovenfor utvides til taylorrekken til   om punktet  .

 

Det viser seg riktignok at eksistensen til alle de deriverte ikke medfører at   lar seg representere ved en taylorrekke. Med andre ord: Enhver analytisk funksjon er glatt, men det omvendte gjelder ikke.

AnvendelserRediger

Utregning av minima og maksimaRediger

En av de viktigste anvendelsene til derivasjonsregning er å finne ekstremalverdiene til en funksjon. For en monoton funksjon befinner disse seg på randen av definisjonsområdet, men generelt finner man dem på de stedene hvor den deriverte er lik null. En funksjon kan ha maksimal- eller minimalverdier, uten at den deriverte eksisterer i dette punktet; i det følgende betrakter vi imidlertid funksjoner som i det minste er lokalt deriverbare. Som eksempel bruker vi polynomet

  .

Avbildningen viser forløpet til  ,   og   .

 

Vannrette tangenterRediger

Har en funksjon   med   sin største verdi i et punkt  , gjelder det for alle   i dette intervallet at  , og er   deriverbar i punktet  , so må den deriverte være lik null i dette punktet:  . Et tilsvarende utsagn gjelder hvis   har sin minste verdi i punktet  .

Den geometriske beskrivelsen av denne Fermats sats er at tangenten til funksjonen i et lokalt ekstremalpunkt er parallell til  -aksen, eller med andre ord vannrett.

For deriverbare funksjoner er det dermed en nødvendig betingelse for et ekstremalpunkt, at den deriverte i punktet er lik 0:  

Omvendt kan man ikke slutte at et punkt er et ekstremalpunkt bare fordi den deriverte er null i det punktet; det kan for eksempel også være et såkalt sadelpunkt.

Nødvendige og tilstrekkelige betingelser i eksempeletRediger

I eksempelet er

 

Det følger at   for   og  . Funksjonsverdiene i disse punktene er   og  ; det vil si at kurven har vannrette tangenter i punktene   og  .

Siden følgen

 

består av vekselvist små og store verdier, må man i dette området ha et lokalt maksimumspunkt og et lokalt minimumspunkt. Ved Fermats sats har kurven vannrette tangenter i disse punktene. Altså er   et lokalt maksimum og   et lokalt minimum.

DrøftingRediger

Ved hjelp av deriverte kan man også analysere andre egenskaper til en funksjon, som vendepunkter, sadelpunkter og konveksitet. Dette kalles kurvedrøfting.

DifferensialligningerRediger

Hovedartikkel: differensialligning

En viktig anvendelse til derivasjonsregning er matematisk modellering av fysiske fenomener. Vekst, bevegelse eller krefter har alle med deriverte å gjøre; beskrivelsen av disse fenomenene må derfor inneholde differensialer. Typisk fører disse ligningene til differensialligninger, hvor funksjoner og deres deriverte er ukjente.

For eksempel forbinder Newtons bevegelseslov

 

akselerasjonen   til et legeme med dets masse   og den påvirkende kraften  . Grunnproblemet i mekanikk er dermed å finne funksjonen som beskriver et legemes posisjon ut fra den gitte akselerasjonen. Denne oppgaven gir en annenordens differensialligning.

Et eksempel for anvendt derivasjonsregningRediger

I mikroøkonomi analyserer man for eksempel forskjellige former for produksjonsfunksjoner, for å oppnå forståelse for makroøkonomiske sammenhenger. Her er det først og fremst den typiske oppførselen til en produksjonsfunksjon som er av interesse: Hvordan reagerer de avhengige variablene   (for eksempel den mengden av en vare som produseres) når   (for eksempel arbeid eller kapital) økes med en (infinitesimal) enhet.

En grunntype av produksjonsfunksjoner er den nyklassiske produksjonsfunksjonen. Denne funksjonen har egenskapen at produksjonen stiger når innverdien øker, men at økningen avtar med høyere innverdi. For ekempel kan man ha den følgende produksjonsfunksjonen for en virksomhet:

 

Den deriverte følger av kjerneregelen:

 .

Da rotuttrykket bare kan være positivt, ser man at produksjonen øker med økende innverdi. Den andrederiverte gir

 .

Denne er negativ for alle inn-verdier; altså er økningen synkende.

Andre anvendelserRediger

Koblede hastigheter

Kompleks deriverbarhetRediger

For deriverbarheten til funksjoner med komplekse argumenter, bruker vi definisjonen med linearisering. Overraskende nok er betingelsen langt strengere her enn i det relle tilfellet. For eksempel er absoluttverdifunksjonen ikke komplekst deriverbar i noe punkt. Samtidig er en kompleks funksjon som er deriverbar i en omegn, automatisk vilkårlig mange ganger deriverbar.

Derivasjon av flerdimensjonale funksjonerRediger

Til nå har vi bare betraktet funksjoner med én variabel. Funksjoner som avbilder vektorer på vektorer eller skalarer, kan også ha deriverte. Riktignok er ikke tangenten til en slik funksjon entydig bestemt, da den kan ha flere forskjellige retninger. Her behøves altså en generalisering av det tidligere derivasjonsbegrepet.

Partielt deriverteRediger

Vi betrakter en funksjon som går fra   til  . Et eksempel er temperaturfunksjonen: Vi måler hvordan temperaturen avhenger av posisjonen i et rom, for eksempel for å avgjøre hvor effektiv oppvarmingen er. Beveger vi termometeret i en bestemt retning, merker vi en forandring i temperaturen. Dette tilsvarer den deriverte i den retningen. Den retningsderiverte i enkelte retninger, nemlig parallelt til koordinataksene, kaller man partielt deriverte.

Tilsammen kan man regne ut   partielt deriverte for en funksjon med   variabler.

 
 

De enkelte partielt deriverte til en funksjon kan sammenfattes som gradienten til en funksjon. Partielt deriverte kan deriveres om igjen, og kan da sammenfattes som en såkalt hessematrise. Analogt til det endimensjonale tilfellet, er kandidatene for ekstremalpunktene de punktene hvor den deriverte er lik null, det vil si der hvor gradienten forsvinner. Tilsvarende bruker man den andrederiverte, altså hessematrisen, til å bestemme nøyaktig hvor ekstremalpunktene ligger.

Implisitt derivasjonRediger

Hvis en funksjon   er definert ved en implisitt ligning  , så følger det av den generaliserte kjerneregelen for funksjoner av flere variabler at

 

For den deriverte av funksjonen   får vi da at

  med  

Total deriverbarhetRediger

En funksjon  , hvor   er en åpen mengde kalles totalt deriverbar i punktet  , hvis det finnes en lineær avbildning   slik at

  gjelder.

For det endimensjonale tilfellet stemmer denne definisjonen overens med den ovenfor angitte definisjonen. Hvis en slik lineær avbildning   eksisterer, er den entydig bestemt, og avhenger ikke av hvilken norm som benyttes. Tangentene kan da finnes gjennom den lokale lineariseringen. Matrisefremstillingen av den førstederiverte til   kalles jacobimatrisen og er en  -matrise. Hvis   får man gradienten som er beskrevet ovenfor.

Mellom de partielt deriverte og den totalt deriverte finnes følgende sammenheng: Hvis den totalt deriverte eksisterer i et punkt, eksisterer også alle de partielt deriverte i det punktet. I dette tilfellet stemmer de partielt deriverte overens med koeffisientene i jacobimatrisen. Omvendt følger det ikke av eksistensen til samtlige partielt deriverte i et punkt   at den totalt deriverte eksisterer i det punktet; funksjonen trenger ikke engang være kontinuerlig. Men er de partielt deriverte i tillegg kontinuerlige i en omegn om  , så er funksjonen totalt deriverbar i  .

Viktige teoremerRediger

  • Schwarz’ teorem: For partielt deriverte av høyere orden er derivasjonsrekkefølgen likegyldig, når alle de partielt deriverte til og med denne ordenen er kontinuerlige.
  • Det implisitte funksjonsteoremet: Funksjonsligninger er løsbare hvis jacobimatrisen er lokalt invertibel.

LitteraturRediger

Eksterne lenkerRediger