Home > Filtered Indexes

Filtered Indexes

Con SQL Server 2008 fanno il loro debutto gli indici e le statistiche filtrare; sono le strutture che conosciamo già, a cui però viene applicato un criterio di filtro. In questo articolo parleremo degli indici filtrati cercando di capire quando la loro applicazione può migliorare le performance delle query.

Il comando CREATE INDEX può ora accettare la clausola WHERE utilizzata per specificare il criterio di filtro.

Consideriamo, ad esempio, un indice standard definito su due colonne di una tabella (col_1 e col_2), l’ultimo livello (foglia) contiene la combinazione dei valori presenti nelle due colonne. Diversamente, se specifichiamo un criterio nella clausola WHERE del comando CREATE INDEX, per selezionare solo alcuni valori di una colonna, (ad esempio col_1 > 10) le righe che non soddisfano il criterio verranno ignorate, proprio durante la costruzione dell’indice, a prescindere dal valore contenuto nella seconda colonna. Il risultato è una struttura B-Tree più piccola in cui l’ultimo livello (foglia) contiene soltanto i dati che verificano il criterio specificato. 

Utilizzo degli indici filtrati

La probabilità che il query optimizer scelga di utilizzare un indice filtrato è più alta quando il criterio specificato nella clausola WHERE della query è simile al criterio specificato nella clausola WHERE dell’indice.

Consideriamo, ad esempio, la tabella dbo.orderheader con la seguente struttura:

— create table orderheader
create table dbo.orderheader
(orderid int identity(1, 1) not null,
 orderdate datetime default getdate() not null,
 ordernumber as (isnull(N’SO’ + convert([nvarchar](23), [orderid], 0), N’*** error ***’)),
 customerid int default 1 not null,
 shipname varchar(20) default ‘name’,
 shipaddress varchar(40) default ‘address’,
 shipvia varchar(40) default ‘via’,
 shipcity varchar(20) default ‘city’,
 shipregion varchar(20) default ‘region’,
 shippostalcode varchar(20) default ‘postal code’,
 shipcountry varchar(20) default ‘country’,
 — delivery info
 deliverydate datetime default (getdate() + datepart(ss, getdate())) not null,
 deliverynote varchar(40)
 primary key(orderid)
);

Assumiamo che solo pochi ordini abbiamo dei dati nella colonna deliverynote, utilizzata dai clienti per segnalare eventuali particolarità relative alla consegna, ad esempio: “non consegnare il Lunedì pomeriggio”.

Popoliamo la tabella dbo.orderheader con 500.000 ordini cliente (per semplicità inseriamo solo la testata) di cui solo 500 (uno su 1000) con dati nella colonna note di consegna (deliverynote):

declare @i as int
set @i = 0
while (@i < 500000)
begin
  set nocount on

  — insert orderheader
  insert into dbo.orderheader default values
 
  if (@i % 1000) = 1
  begin
    update
      dbo.orderheader
    set
      deliverynote = ‘Not deliver the ‘ + (select ltrim(rtrim(datename(weekday, getdate() + @i)))) + ‘ afternoon’
    where
      (orderid = (select scope_identity()))
  end

  set @i = (@i + 1)
  set nocount on
end;

Vogliamo ora creare un indice appropriato per la seguente query di estrazione degli ordini cliente con note e data di consegna compresa tra il 12/09/2009 ed il 12/10/2009.

create nonclustered index FIDX__orderheader_delivernote on dbo.orderheader
(
  deliverydate
  , deliverynote
)
include
(
  ordernumber
  , orderdate
);

go

select
  deliverydate
  , ordernumber
  , orderdate
from
  dbo.orderheader
where
  (deliverydate between ‘20090912’ and ‘20091012’)
  and (deliverynote is not null);

Eseguiamo la query e analizziamo il piano di esecuzione e le statistiche di I/O, l’indice FIDX__orderheader_delivernote precedentemente creato viene scelto dal query optimizer. Per l’estrazione dei dati richiesti sono necessarie 1168 letture.

Statistiche di I/O per l’indice standard:

(194 row(s) affected)
Table ‘orderheader’. Scan count 1, logical reads 1168, physical reads 0, read-ahead reads 0, lob logical reads 0, lob physical reads 0, lob read-ahead reads 0.

Applichiamo ora un criterio di filtro all’indice FIDX__orderheader_delivernote, aggiungiamo la clausola WHERE e specifichiamo la condizione "deliverynote is not null". Così facendo, durante la costruzione dell’indice, verranno considerate soltanto le righe aventi una nota di consegna:

drop index FIDX__orderheader_delivernote on dbo.orderheader;
go

create nonclustered index FIDX__orderheader_delivernote on dbo.orderheader
(
  deliverydate
  , deliverynote
)
include
(
  ordernumber
  , orderdate
)
where
  (deliverynote is not null);

Analizziamo di nuovo il piano di esecuzione e le statistiche di I/O per la stessa query di interrogazione, ma con l’indice filtrato:

Statistiche di I/O per l’indice filtrato:

(194 row(s) affected)
Table ‘orderheader’. Scan count 1, logical reads 5, physical reads 0, read-ahead reads 0, lob logical reads 0, lob physical reads 0, lob read-ahead reads 0.

Confrontando i piani di esecuzione, osserviamo che il query optimizer, in entrambi i casi, sceglie di utilizzare l’indice FIDX__orderheader_delivernote perché questo “copre” la query, utilizzando l’indice filtrato però si è drammaticamente ridotto il numero di pagine lette.

Conclusioni

Quando è conveniente utilizzare un indice filtrato ? E’ conveniente quando il rapporto tra il numero delle righe interessate nel filtro (applicato all’indice) e il numero (totale) delle righe presenti nella tabella è basso.

L’efficacia dell’indice filtrato sarà tanto maggiore quanto minore risulterà essere questo rapporto (nell’esempio trattato il rapporto è 500/500.000 = 0.001). Qualora più del 50% delle righe della tabella dbo.orderheader avessero le note di consegna, la manutenzione dell’indice filtrato sarebbe molto più costosa rispetto alla manutenzione dell’equivalente indice standard e la scelta di utilizzarlo sarebbe sbagliata.

Gli indici filtrati risultano meno performanti degli indici standard nelle operazioni di mantenimento (durante la modifica dei dati).

Pulizia del [tempdb]

use [tempdb];
go

if (object_id(‘orderheader’, ‘U’) is not null)
  drop table dbo.orderheader;
go

 

Chi è Sergio Govoni

Sergio Govoni è laureato in Scienze e Tecnologie Informatiche. Da oltre 16 anni lavora presso una software house che produce un noto sistema ERP, distribuito a livello nazionale ed internazionale, multi azienda client/server su piattaforma Win32. Attualmente si occupa di progettazione e analisi funzionale, coordina un team di sviluppo ed è responsabile tecnico di prodotto. Lavora con SQL Server dalla versione 7.0 e si è occupato d'implementazione e manutenzione di database relazionali in ambito gestionale, ottimizzazione delle prestazioni e problem solving. Nello staff di UGISS si dedica alla formazione e alla divulgazione in ambito SQL Server e tecnologie a esso collegate, scrivendo articoli e partecipando come speaker ai workshop e alle iniziative del primo e più importante User Group Italiano sulla tecnologia SQL Server. Ha conseguito la certificazione MCP, MCTS SQL Server. Per il suo contributo nelle comunità tecniche e per la condivisione della propria esperienza con altri, dal 2010 riceve il riconoscimento SQL Server MVP (Microsoft Most Valuable Professional). Nel corso dell'anno 2011 ha contribuito alla scrittura del libro SQL Server MVP Deep Dives Volume 2 (http://www.manning.com/delaney/).

Leggi Anche

Azure Key Vault e certificati code-signing: Strategie per la conformità post 1° Giugno 2023!

In questi giorni, ho avuto l’opportunità di esplorare il rinnovo di un certificato di code-signing …