Complessità asintotica

Da Wikiversità, l'apprendimento libero.
Jump to navigation Jump to search
lezione
Complessità asintotica
Tipo di risorsa Tipo: lezione
Materia di appartenenza Materia: Algoritmi e strutture dati



Per misurare l'efficienza di un particolare algoritmo, a prescindere dalla macchina utilizzata, bisogna valutare l'utilizzo di memoria e di tempo da parte dell'algoritmo in funzione dell'input.

Per poter studiare come aumentano il tempo e la memoria all'aumentare dell'input, bisogna rifarsi alla stima asintotica, introduciamo quindi 3 nuove notazioni:

Espressioni asintotiche: O, Ω, Θ[modifica]

O (o grande), Ω (omega grande), Θ (theta grande) sono le tre espressioni asintotiche che utilizzeremo per studiare i diversi algoritmi. Queste espressioni servono per studiare quanto una funzione è simile ad un'altra, più conosciuta (si farà sempre riferimento a queste classi di funzioni: logaritmiche, polinomiali ed esponenziali; è necessario conoscere le principali caratteristiche di queste funzioni per poter comprendere il resto della lezione). Queste sono le definizioni matematiche che useremo cum grano salis:

O grande[modifica]

Siano f e g due funzioni definite su a valori in .

Si dice che f(n) è un o-grande di g(n), in simboli

se .

Si dice anche che f(n) ha ordine di grandezza minore o uguale a quello di g(n), cioè la funzione g(n) domina f(n).

Se la successione g(n) ha valori definitivamente diversi da 0, una condizione equivalente, sfruttando il limite superiore, è che sia

Omega grande[modifica]

Si dice che f(n) è un omega grande di g(n), in simboli

se .

Si dice anche che f(n) ha ordine di grandezza maggiore o uguale a quello di g(n), o che g(n) è dominata da f(n).

Usando la notazione del limite inferiore, una condizione equivalente è che sia

Relazione Theta[modifica]

f(n) e g(n) sono dette avere lo stesso ordine di grandezza, in simboli

se .

Usando i limiti superiore e inferiore, questa condizione si può enunciare come

Applicazioni agli algoritmi[modifica]

Possiamo riassumere queste definizioni in questo modo:

  • se non cresce più di un multiplo di per n abbastanza grandi
  • se cresce sempre più di un multiplo di per n abbastanza grandi
  • se è sia sia di multipli (distinti) di per n abbastanza grandi
Omega e O grande di f.gif

È molto utile ricordare i diversi ordini di infinito:

Questo significa che un algoritmo di complessità (spaziale o temporale) è più efficiente di un algoritmo di complessità (dove n solitamente è la dimensione dell'input e ovviamente a è positivo e maggiore di 1).

Molto spesso si parlerà di complessità detta "pseudo-lineare"; l'ordine di questo infinito è poco superiore al lineare e inferiore a qualsiasi potenza maggiore di 1: ossia e con .

Parlando di complessità di un algoritmo, bisogna specificare che il tempo T(n) e lo spazio S(n) dipendono dalle dimensioni dell'input n (ad esempio, se un array è l'input principale, n sarà la lunghezza di tale array). Tuttavia T(n) e S(n) non sono vere funzioni, infatti per la medesima n possono avere risultati completamente diversi (esempio: utilizzando la ricerca binaria, a prescindere dalle dimensioni dell'array, se si cerca il valore mediano si eseguirà solo un controllo, dunque T(n)= costante ).

Per poter definire univocamente S(n) e T(n) bisogna distinguere il caso peggiore, caso migliore e caso medio. Si distingue, per ogni n, l'input che genera il tempo e lo spazio maggiore (caso peggiore) e l'input che genera il tempo e lo spazio minore (caso migliore); inoltre si considera una media di tutti i casi possibili (caso medio) a parità di n. In questo modo si hanno 3 funzioni (sia per il tempo che per lo spazio) univocamente determinate; molto spesso queste funzioni non sono riconducibili a funzioni elementari, ma il loro andamento asintotico è uno di quelli appena descritti.

Caso migliore, caso peggiore e caso medio[modifica]

Più precisamente: Sia A un algoritmo descritto in modo informale oppure un programma scritto in un vero linguaggio di programmazione. Sia X un possibile insieme di dati in ingresso adatta all'esecuzione dell'algoritmo (ad esempio, per un algoritmo operante su un array, X è il particolare array passato all'algoritmo). Siano:

  • tempo di esecuzione dell'algoritmo per l'input X;
  • spazio di memoria necessario (in aggiunta allo spazio occupato dal dato stesso in ingresso I) per l'esecuzione dell'algoritmo per l'input X;
  • dimensione dell'input X, espressa in unità convenienti.

ed di solito dipendono da , ma non solo da . I tre casi possono essere riassunti in questo modo:

  • Caso peggiore: X di dimensione n
  • Caso migliore: X di dimensione n
  • Caso medio: X di dimensione n (Notare che è una media ponderata sulle probabilità con cui si possono verificare i diversi input)

In tale modo, per ogni n, e sono univocamente determinati e sono vere funzioni in n (analogo discorso per e ).

Delimitazioni Superiori e Inferiori di un algoritmo[modifica]

Ovviamente esistono, dato un algoritmo, una serie di combinazioni possibili di complessità nel caso peggiore, migliore o medio. Vanno però notate alcune ovvie proprietà:

  • Se è allora è e è .

Ossia se nel caso peggiore l'algoritmo cresce non più di una funzione allora i casi migliore e medio cresceranno meno del caso peggiore, ed in particolare, meno di tale funzione .

  • Se è allora è e è .

Ossia se il caso migliore cresce almeno quanto una certa funzione allora anche il caso peggiore crescerà almeno quanto tale funzione.

Possiamo generalizzare (uscendo dal rigore matematico) dicendo che

  • Il tempo di esecuzione di un algoritmo è se è
  • Il tempo di esecuzione di un algoritmo è se è

Il tempo di esecuzione di un algoritmo è se è sia che

Un esempio: l'insertion sort[modifica]

L'insertion sort è un algoritmo di ordinamento. Tale algoritmo ha una complessità nel caso peggiore (che corrisponde, solitamente, ad un array con elementi inseriti in ordine inverso) pari a , quindi anche , perciò possiamo dire che il tempo di esecuzione dell'algoritmo è . Nel caso migliore (che come vedremo, corrisponde all'array già ordinato) è , quindi anche . Dunque il tempo di esecuzione dell'algoritmo è .

Complessità dei problemi[modifica]

Studiare la complessità di un problema (ossia quello che un algoritmo risolve) è molto diverso dallo studiare la complessità di un algoritmo. Per poter dire che un problema ha complessita O(f(n)) (ipotizziamo di parlare del caso peggiore) basta trovare un qualsiasi algoritmo che lo risolva con O(f(n)). Per poter affermare che un problema è Ω(f(n)) occorre invece dimostrare matematicamente che tutti i possibili algoritmi (inventati o non) lo risolvano alla meglio come Ω(f(n)).

Dunque per limitare superiormente un problema basta trovare almeno un algoritmo con complessità O(f(n)), invece per limitare il problema inferiormente bisogna studiare ogni possibile soluzione (il problema, in linea teorica, potrebbe essere risolto in tempo costante, ma si può sempre dimostrare il contrario).

Un esempio: l'ordinamento[modifica]

Sapendo che esiste un algoritmo (ad esempio il Quick Sort) che risolve il problema dell'ordinamento in un tempo possiamo facilmente dire che il limite superiore dell'ordinamento è . Tuttavia non sappiamo ancora se possa esistere un algoritmo ancora più veloce, ma possiamo immaginare che per ordinare un array bisogna almeno leggere una volta tutti gli elementi (se non altro per metterli al posto giusto); dunque una prima intuizione matematica ci fa pensare che il limite inferiore dell'ordinamento sia lineare in . A questo punto si presenta un gap: il limite superiore è diverso da quello inferiore per un ordine di infinito ( cresce più di ). L'esistenza di questo gap può voler dire due cose: o esiste un algoritmo più veloce, che risolve il problema dell'ordinamento in tempo lineare oppure è da dimostrare (ma, in generale, non è certo che la dimostrazione esista) che è il limite inferiore.

Problemi insolubili[modifica]

Esistono, per concludere il discorso, problemi (rigorosamente specificati) non risolvibili dai calcolatori. Uno di questi può essere enunciato nel seguente modo: "Dati due programmi scritti in un linguaggio di programmazione (reale o ipotetico) stabilire se sono equivalenti: ossia se per ogni input restituiscono lo stesso output". Per tali problemi è stato dimostrato non possa esistere nessun algoritmo risolvente.

Riassumendo, ad oggi, si presentano situazioni diverse per diversi problemi algoritmici:

  • Problemi risolti da un algoritmo "veloce" (logaritmico, lineare, pseudolineare) e per i quali si è dimostrato che non possono esistere algoritmi asintoticamente migliori (problemi "facili" chiusi); esempio: il problema dell'ordinamento;
  • Problemi risolti da un algoritmo efficiente o comunque polinomiale, che però non si sa se sia quello asintoticamente migliore (problemi trattabili, con gap algoritmico); esempio: il prodotto di matrici;
  • Problemi "presumibilmente" intrattabili: problemi per i quali gli unici algoritmi risolventi sono esponenziali, e per i quali si sospetta fortemente – ma non si è dimostrato – che non esistano algoritmi migliori; esempi: soddisfacibilità booleana, problema del commesso viaggiatore;
  • Problemi dimostrabilmente intrattabili: problemi per i quali gli unici algoritmi risolventi sono esponenziali, e per i quali si è dimostrato che non possono esistere algoritmi migliori; esempi: le torri di Hanoi, il problema dei blocchi stradali;
  • Problemi dimostrabilmente insolubili: problemi per i quali si è dimostrato che non possono esistere algoritmi risolventi; esempi: il problema della terminazione, il problema dell'equivalenza fra programmi.