4
L’orientamento al mercato infatti risulta essere una necessità rivelatasi negli
ultimi anni in cui la crescente concorrenza nei vari settori ha diminuito il
potere contrattuale delle imprese, a favore degli acquirenti.
Si dedicherà attenzione inoltre al consumatore, in quanto fulcro fondamentale
in torno al quale ruota l’intero approccio di marketing.
Le scelte e le decisioni del consumatore sono il risultato e la conseguenza di
un sistema, estremamente complesso che fa riferimento alle caratteristiche
dell’individuo stesso.
La scomposizione di tale sistema, in fattori culturali, sociali, personali e
psicologici, costituisce un valido compromesso di analisi che conduce alla
conoscenza dell’argomento attraverso una più semplice e accessibile
esposizione.
Si darà poi la definizione di segmentazione nonché le condizioni per cui
risulti efficace, in termini di:
Misurabilità, ovvero il grado in cui è possibile stabilirne la dimensione e il
potere d’acquisto dei vari segmenti;
Accessibilità, cioè la misura in cui i segmenti possono essere raggiunti e
serviti;
Importanza, ovvero l’ampiezza del segmento in funzione della profittabilità
dello stesso.
Praticabilità, che si riferisce alla misura in cui sia possibile attivare strategie
efficaci per servire i segmenti scelti.
Si dimostrerà come, la possibilità di conoscere da parte del management, la
struttura dei segmenti, permette di evitare una politica aziendale
standardizzata e comune, pensata per il mercato in generale ma che non
soddisfa i bisogni del consumatore in maniera soddisfacente,
compromettendo significativamente così margini di mercato e di profitto.
Si descriverà poi, la relazione esistente tra le condizioni di efficacia del
processo di segmentazione e la scelta delle basi (o parametri) della
segmentazione.
In particolare, si evidenzierà come il requisito della praticabilità, verrà
soddisfatto, quando i parametri utilizzati misurino l’efficacia delle leve di
marketing a disposizione dell’azienda. Sarebbe infatti insensato concepire un
segmento dove non si faccia riferimento almeno ad alcuni dei seguenti
parametri (o leve di marketing): preferenza delle varie caratteristiche e
versioni di prodotto, elasticità al prezzo, sensibilità rispetto alla pubblicità e
alla promozione, preferenza di canali di distribuzione. In termini di
accessibilità e misurabilità e ampiezza, i segmenti devono invece essere
costruiti tenendo presente parametri oggettivamente visibili, come le variabili
demografiche.
Si classificheranno quindi tali basi a seconda se siano più o meno legati al
prodotto o se siano più o meno osservabili.
5
Esse infatti, possono essere classificate in Generali, e quindi indipendenti da i
prodotti, servizi o simili circostanze; in Product-specific quelle legate ai
prodotti, ai consumatori in quanto tali, ai servizi e a particolari circostanze.
Le variabili direttamente misurate vengono definite Osservabili; quelle oggetto
di inferenza o semplicemente dedotte si definiscono Non Osservabili.
Si passerà quindi alla descrizione dei metodi utilizzabili nel processo di
segmentazione. Si parlerà dei metodi A Priori, dove il numero dei segmenti,
l’ampiezza relativa e la loro descrizione sono definite all’inizio dell’analisi. Si
descriverà la Segmentazione Flessibile, dove la connotazione di tali elementi
è invece il risultato di un’analisi dinamica e reversibile.
Si distinguerà poi, a seconda delle metodologie statistiche impiegate, tra i
Metodi Descrittivi che analizzano le associazioni tra le singole variabili non
avendole precedentemente classificate come dipendenti o indipendenti e i
Metodi Predittivi, che tentano di spiegare o predire un set di variabili
(dipendenti) attraverso l’uso di predittori.
Si descriverà quale funzione assolve la segmentazione, nell’ambito della
pianificazione strategica, quali legami intercorrono con la strategia di
posizionamento e soprattutto con le leve del marketing operativo.
Si tratterà infine del sistema informativo di marketing ed in particolare della
struttura di una ricerca di marketing per la quale si sottolineerà la necessità di
seguire una procedura rigorosa ma flessibile alle esigenze e alla particolarità
dell’oggetto di studio in questione.
Il secondo capitolo tratterà delle tematiche inerenti le metodologie che
nell’ambito della segmentazione vengono solitamente impiegate. Si affronterà
la descrizione seguendo un approccio rigoroso e matematico che permetterà
di dimostrare i punti di forza e debolezza di ciascun metodo.
Si descriverà’ in primo luogo l’analisi di raggruppamento (cluster analysis),
inquadrandola innanzitutto nelle classificazioni effettuate nel primo capitolo.
Per cluster analysis si intende più precisamente una famiglia di metodologie,
impiegate sia nell’ambito del marketing, che in altre discipline. Per ogni
singola procedura si fornirà una dettagliata e rigorosa descrizione teorica,
supportata da esemplificazioni effettuate con il software SPSS 5.0.
L’analisi di raggruppamento, è in effetti, la tecnica più importante nell’analisi
della segmentazione in quanto ha esattamente l’obiettivo di identificare una
partizione del campione in base alle loro similarità, date delle caratteristiche
rilevanti. Occorrerà definire, nell’ambito di tale procedura, i concetti di
distanza e similarità in modo da poter effettuare una misurazione della
omogeneità dei vari oggetti. Si distinguerà poi, in algoritmi di classificazione
diretta e in algoritmi di classificazione gerarchica.
6
Per quanto riguarda gli algoritmi di classificazione diretta, (o delle k-medie),
si descriverà una procedura iterativa che presuppone l’esistenza di dato
spazio multidimensionale nel quale sono definiti gli elementi da raggruppare e
una definizione di distanza. Si passerà successivamente, all’illustrazione di
come avvenga l’assegnazione dei centri provvisori attorno ai quali procedere
al raggruppamento.
Tale analisi sarà supportata da un esempio inerente il mercato dei registratori
a cassette.
Le procedure di classificazione gerarchica prevedono che in ogni fase
avvenga un’aggregazione di due oggetti o gruppi di oggetti che, in quella
fase, risultano i più omogenei in base alla definizione di distanza o similarità
stabilite. Per esse si farà invece riferimento al mercato nord americano della
birra.
Il secondo paragrafo, tratterà della conjoint analysis. Si tratta di una tecnica
di analisi multivariata, che permette la misurazione dell’importanza di una
serie di caratteristiche di prodotto/servizio utilizzando le valutazioni fornite dai
consumatori. Attraverso la raccolta di informazioni sui consumatori relative a
caratteristiche demografiche e psicografiche, permette poi la spiegazione di
questi segmenti, costruiti in base alle specifiche valutazioni. Si fornirà inoltre
come esempio, l’analisi delle componenti di prodotto relativamente al mercato
dei personal computer.
La procedura verrà descritta per fasi, si tratteranno dapprima i modelli
attraverso i quali si spiega la preferenza di un prodotto, mediante i suoi
attributi; verranno enucleati i metodi che permettono la costruzione del
numero e della tipologia di profili più opportuni. Seguiranno i metodi di stima
e i modelli di simulazione.
L’analisi dei fattori, può essere usata preliminarmente, alle metodologie a cui
si è fatto riferimento sopra. Si dimostrerà infatti, come questa tecnica
permetta una sintesi delle informazioni contenute nei dati di partenza, in
quanto il risultato ottenibile fa riferimento ad una serie di fattori comuni sui
quali si potrà eseguire la procedura più opportuna di segmentazione. Si
descriverà, come esempio, la sintesi, in fattori, di variabili relative ad una
comunità di persone, nel caso specifico una contea.
Il capitolo si conclude con la descrizione dell’analisi delle componenti
principali che, come l’analisi dei fattori costituisce un tentativo di spiegare un
insieme di dati un minor numero di dimensioni rispetto a quelle di partenza.
Verrà sottolineata l’importanza di tale analisi in quanto, i relativi risultati,
essendo una trasformazione dei dati di partenza, evitano la verifica di ipotesi
relativamente restrittive, necessaria perché l’analisi dei fattori conduca a
conclusioni accettabili.
7
Il terzo capitolo tratterà dei modelli Glimmix e dell’algoritmo EM. In
quest’ambito si descriveranno metodologie estremamente diverse dalle
precedenti, in quanto si seguirà un approccio predittivo e inferenziale propri
della teoria econometrica. Inizialmente si descriverà la maggiore
appropriatezza di una mistura di distribuzioni nel spiegare i dati di un
campione relativo ad un mercato eterogeneo. Si assumerà infatti l’ipotesi che
il mercato sia composto da una pluralità di segmenti ai quali viene associata
una funzione della suddetta mistura, i cui parametri, devono essere stimati.
Solitamente si tratta della media e della varianza a seconda della
distribuzione ipotizzata. Verranno inoltre definite le probabilità a priori e a
posteriori che un elemento appartenga ad un dato segmento. Le probabilità a
posteriori calcolate col teorema di Bayes, forniscono un’allocazione
probabilistica dei soggetti del campione nei vari segmenti, avendo osservato,
per tali soggetti, i valori del set di variabili a disposizione.
La probabilità a priori verrà invece calcolata, per ogni segmento, come media
delle probabilità a posteriori. Essa misura la grandezza relativa dei segmenti
e fornirà un’allocazione probabilistica di quei soggetti (esterni al campione),
per i quali non si ha a disposizione i valori del set di variabili esplicative. Per
ogni segmento si stimeranno quindi i parametri relativi alle distribuzioni come
ad esempio il tasso medio d’acquisto, un eventuale parametro che misuri la
dispersione intorno alla media, e le probabilità (a priori e a posteriori) di
appartenenza ai vari segmenti.
Si procederà quindi alla descrizione della procedura di stima: il metodo
impiegato per le stime farà riferimento all’algoritmo EM. Si tratta di una
procedura iterativa che nella fase E, (expectation), fornisce una stima delle
probabilità a posteriori e a priori, nella fase M procede alla stima dei
parametri delle distribuzioni dando per costanti le probabilità calcolate nella
fase E. In questa maniera, la stima dei parametri per ciascun segmento, tiene
conto della probabilità di appartenenza di ogni soggetto ai vari segmenti. A
loro volta, i parametri delle distribuzioni ottenuti nella fase M, costituiscono i
valori che, introdotti nella formula di Bayes permettono di stimare nella fase E
successiva, i nuovi valori delle probabilità a posteriori e a priori. L’analisi si
apre considerando dei valori casuali, tratti da una distribuzione opportuna,
come probabilità a posteriori. La procedura viene invece arrestata quando gli
incrementi dei valori delle funzioni di Log-Verosimiglianza relativamente alle
stime di ogni segmento, non subiscono significative variazioni dalla fase n
alla fase n+1.
Sono poi descritte le limitazioni che occorre considerare nell’effettuare tale
procedura. Le funzioni di Log-Verosimiglianza, possono condurre a degli
ottimi locali, fornendo così delle stime distorte dei parametri. Si suggeriranno
delle soluzioni, più o meno ottimali che fanno riferimento ai diversi valori di
partenza assegnati alle probabilità a posteriori.
8
La procedura prevede inoltre che il ricercatore stabilisca a priori il numero dei
segmenti. In tal caso saranno applicabili i tests AIC e BIC per verificare il
numero più opportuno delle partizioni.
Saranno poi descritte due significative generalizzazioni alla teoria descritta
finora.
Si specificherà un modello regressivo lineare, per ciascun segmento, dove la
media della variabile dipendente sia legata attraverso un predittore lineare, al
set di variabili indipendenti.
L’assunzione che la variabile dipendente sia distribuita normalmente verrà poi
generalizzata considerando l’intera famiglia delle distribuzioni esponenziali. In
questo modo si potranno ipotizzare modelli la cui variabile dipendente abbia
ad esempio, una distribuzione discreta, permettendo così analisi relative alla
preferenza o meno di un prodotto (si farà riferimento così alla distribuzione di
Bernoulli); altre analisi molto frequenti, fanno ad esempio riferimento al
numero di acquisti effettuati in un arco di tempo, ( utilizzando così
distribuzione di Poisson). Verranno infine descritti dei sub-modelli di stima,
(modelli logit), in grado di spiegare l’ampiezza relativa dei segmenti
attraverso variabili oggettive (secondo la definizione data nel capitolo primo).
Verranno inoltre dimostrate delle forme chiuse valide per la stima dei
parametri inerenti alle distribuzioni di Poisson e Gaussiana. Si permetterà
così di evitare l’effettuazione di procedure a ottimizzazione numerica come il
metodo di Newton-Raphson, che conseguono valori approssimativi delle
stime.
Verrà inoltre dimostrato che le procedure di stima che massimizzano la
particolare funzione Log-Verosimiglianza utilizzata nell’algoritmo EM, sono
equivalenti alle stime ottenute con il metodo dei Minimi Quadrati Ponderati. Si
dimostrerà quindi che quest’ultimo metodo (MQP), conduce a risultati
equivalenti al metodo dei Minimi Quadrati Ordinari, (OLS), purché si abbia
opportunamente ponderato i dati. Queste considerazioni saranno di
fondamentale importanza in quanto costituiranno l’ambito teorico in cui
programmare le procedure di stima.
Si porrà inoltre attenzione, a come tale metodologia sia pienamente conforme
alle condizioni di efficacia della segmentazione descritte nel primo capitolo. Il
set dei regressori potrà essere pensato come la combinazione delle leve di
marketing che l’azienda dispone per influenzare i valori della variabile
dipendente, che potrà assumere diverse configurazioni come ad esempio il
tasso medio d’acquisto di un dato prodotto, la disponibilità d’acquisto e così
via.
La condizione di praticabilità verrà così soddisfatta. La stima dell’ampiezza
dei segmenti, (attraverso i valori delle probabilità a priori), permetterà di
valutare l’importanza e la profittabilità degli stessi. I sub-modelli logit, che
spiegano le ampiezze dei segmenti risponderanno invece, al requisito della
raggiungibilità
9
Il capitolo intero fornisce il supporto teorico per le stime effettuate nel settimo
capitolo, nonché per la programmazione del software Microfit 4.0 nel sesto
capitolo.
Nel quarto capitolo si fornirà la giustificazione teorica relativamente alle
procedure di stima scelte, per effettuare le stime nel settimo capitolo. I
modelli Glimmix risulteranno essere più efficaci nel processo di
segmentazione per molteplici motivi. Essi rientrano innanzitutto tra i metodi
predittivi, permettono cioè di fare previsioni circa la variabile dipendente,
avendo osservato i valori del set dei regressori. Essi si prestano quindi ad
essere oggetto di inferenza statistica. La Cluster Analysis al contrario, non
privilegia alcuna delle variabili impiegate, e non si basa su un approccio
probabilistico e inferenziale, che permetta poi l’estrapolazione dei risultati dal
campione all’intera popolazione. La superiore efficacia dei modelli Glimmix,
viene anche confermata in una prospettiva di marketing: si mostrerà infatti
come le condizioni per un’efficace segmentazione, vengano tutte pienamente
rispettate.
I modelli Glimmix poi, possono essere facilmente valutati secondo un ottica
che guarda all’efficienza. È possibile infatti compiere facilmente un’analisi
Costi-Benefici della procedura. Ogni variabile aggiunta nei modelli (per le
quali il management conosce il relativo costo di reperimento), comporta dei
benefici aggiuntivi in termini di capacità predittive, di capacità di descrivere e
delineare i segmenti. Si è in grado così, di individuare, nell’ambito della
ricerca una precisa struttura dei costi che sia correlata con i benefici ottenuti
dalla ricerca stessa e che allo stesso tempo sia in grado di cambiare, al
variare delle variabili e dei dati in genere reperiti.
Il quinto capitolo tratterà dell’indagine di mercato effettuata dall’istituto “Sinus”
di Heidelberg, per conto di “Der Spiegel”. Outfit 4, la ricerca i cui dati verranno
utilizzati nell’effettuare le stime del settimo capitolo, fa parte di un insieme di
indagini ripetute, relative al mercato dell’abbigliamento nella Germania
occidentale che attualmente copre
un periodo di dodici anni, (Outfit 4 è stata effettuata nel 1997). L’obiettivo è
quello di individuare, nell’ambito dell’intero mercato dell’abbigliamento,
i fattori di natura demografica, socioeconomica, psicografica e attitudinale,
che permettano al meglio di spiegare il comportamento d’acquisto, la
preferenza, la consapevolezza, il possesso ed altro, del consumatore
tedesco, sia in una prospettiva dinamica che in un’ottica sezionale. Le
marche sottoposte a intervista sono più di settecento; le variabili impiegate
sono più di trecento. Il campione è costituito da 8359 soggetti di nazionalità
tedesca, la cui età varia dai 14 ai 64 anni. Il metodo di intervista impiegato, fa
riferimento al rilascio di un questionario o all’effettuazione di un’intervista
verbale.
10
L’analisi tenta di rivelare, innanzitutto il background economico e sociale nel
quale si concretizzano le percezioni e le aspettative dei consumatori tedeschi.
L’intento non è quello di rilevare il vero andamento dell’economia, ma di
capire come i consumatori vedono il loro futuro dal punto di vista economico,
finanziario e lavorativo, da cui derivare le loro prospettive di consumo.
Nell’insieme, da Outfit4 (1997), emerge un accentuato pessimismo, circa le
suddette valutazioni. Livelli di disoccupazione elevati, timori e incertezze sulla
globalizzazione, problemi relativi alla riunificazione, influenzano la
propensione al consumo dei consumatori, che nell’ambito dell’abbigliamento,
danno vita a cambiamenti strutturali dei segmenti precedentemente
individuati.
I dati disponibili sul sito internet non sono in un formato che ne permetta la
loro diretta utilizzazione. Nelle regressioni econometriche infatti, i dati sono
strutturati secondo una matrice le cui righe sono costituite dalle osservazioni,
mentre le colonne fanno riferimento alle variabili utilizzate.
Il sito di “Der Spiegel”, non mette a disposizione tale matrice ma permette di
selezionare un set di valori, relativamente a delle variabili di interesse, per i
quali si desidera conoscere l’ampiezza del campione. Il sito permette di
conoscere la numerosità del campione che ad esempio, abbia un’età (la
variabile di interesse) compresa tra i 20 e i 30 anni e allo steso tempo che
legga riviste settimanali e così via. Anche in questo formato tuttavia, benché
sia necessaria un’opportuna costruzione, i dati possono essere utilizzati nelle
regressioni di questo lavoro. La matrice delle osservazioni è stata infatti così
costruita: il set di valori, relativamente a delle variabili di interesse di cui si
parlava prima, costituisce almeno un’osservazione (ovvero una riga della
matrice di cui sopra). Solitamente però, si tratta di una pluralità di
osservazioni la cui numerosità è esattamente l’output ottenibile dal sito. La
matrice da costruire sarà costituita allora, da tutte le combinazioni possibili
dei valori relativi alle variabili di interesse. In questo modo, i profili di ogni
intervistato saranno necessariamente inclusi nella matrice costruita. Tutto ciò
comporta comunque una limitazione: il numero delle combinazioni possibili,
esplode al crescere del numero delle variabili e del numero dei valori che
queste possono assumere. Cosicché se si volesse considerare una
regressione con cinque variabili a cui corrispondo tre possibili risposte, si
avranno 3*3*3*3*3=243 combinazioni possibili che devono essere
singolarmente scaricate dal sito. Considerare numeri eccessivamente alti di
variabili diventa dunque proibitivo. Occorrerà inoltre affrontare altri due
problemi: il campione di 8359 non potrà essere analizzato da Microfit 4.0
perché eccessivamente ampio. Il numero massimo accettabile di
osservazioni dipenderà comunque dal numero di variabili impiegate nella
regressione. A seconda delle esigenze si procederà alla diminuzione in
maniera proporzionale del campione. In secondo luogo, il sito in questione,
mette solamente a disposizione un numero di contatori limitati, anche se la
11
variabile in questione ha un dominio che varia nell’infinito. Si dovrà quindi
risolvere il problema delle distribuzioni censurate.
Il capitolo sesto descriverà come l’algoritmo EM possa essere eseguito
attraverso Microfit 4.0. Tale software costituisce un valido supporto per quel
che riguarda le regressioni econometriche i cui modelli sottostanti siano di
natura macroeconomica o finanziaria. Microfit 4.0 non è però stato pensato
per effettuare stime relative a grandezze di marketing. Esso tuttavia è dotato
di funzioni che possono essere programmate per effettuare procedure
iterative come l’algoritmo EM. Si tratta infatti di costruire un opportuno “batch
file” ovvero una serie di comandi di varia natura, che possono essere eseguiti
in sequenza mediante il semplice richiamo del file stesso.
Il supporto teorico fornito nel capitolo terzo permetterà di utilizzare, attraverso
una preliminare e opportuna fase di ponderazione dei dati, il metodo OLS,
(l’unico impiegabile in Microfit 4.0 in quest’ambito), avendo dimostratone
l’equivalenza con procedure che utilizzino particolari funzioni di Log-
Verosimiglianza, indicate dalla teoria del capitolo terzo.
Il capitolo settimo tratterà delle stime. Inizialmente si procederà alla
segmentazione del mercato delle calzature facendo uso della teoria della
mistura di distribuzioni e dell’algoritmo EM.
Ci si limiterà a segmentare il mercato senza provvedere all’individuazione dei
parametri caratterizzanti ciascun segmento; l’analisi regressiva dei segmenti
infatti, sarà oggetto delle stime successive. La variabile utilizzata, farà
riferimento alla seguente domanda posta agli intervistanti: “indichi il numero
di marche possedute attualmente, relativamente alle sue calzature”. L’ipotesi
di base fa riferimento al fatto che il tasso di possesso di marche di calzature
può essere modellato secondo una distribuzione di Poisson. Vi sarà in questo
caso, un unico parametro da stimare. Tuttavia si vedrà che il mercato
possiede marche di calzature a tassi diversi, una mistura di distribuzioni di
Poisson si adatterà più efficacemente all’eterogeneità del mercato,
provvedendo così alla stima del tasso medio di possesso di calzature per
ogni segmento ipotizzato. Verrà impiegato l’algoritmo EM per allocare i vari
soggetti ai tre segmenti ipotizzati nonché per stimare le medie dei segmenti
per i quali si farà uso di una forma chiusa consistente nella media dei valori
(numero di marche), ponderata dalla probabilità di appartenenza ai vari
segmenti. Occorrerà diminuire in maniera proporzionale il campione in quanto
eccessivamente numeroso. Si dovrà considerare che si tratta di una
distribuzione di Poisson censurata, in quanto il contatore del sito raggiunge il
massimo di dieci (marche possedute), al quale vengono assegnati i valori
maggiori o uguali a dieci. Si effettueranno 223 iterazioni, si presenteranno
risultati intermedi oltre alle considerazioni finali sia di natura econometrica,
sia secondo un approccio di marketing.
12
Il secondo paragrafo tratterà invece di misture di modelli lineari ordinari.
L’obiettivo di queste stime consiste nel segmentare il mercato dei capi
d’abbigliamento sportivi. La variabile dipendente (SBA), farà riferimento alla
seguente domanda: “indichi la spesa media da lei sostenuta per un capo
d’abbigliamento sportivo nell’anno passato”.
La ricerca ha diviso in questo caso il campione in base al sesso, quindi si ha
a disposizione valori sia per uomini che per donne. In queste statistiche ci si
riferirà ai valori per gli uomini. Il totale dei dati disponibili è uguale a 3450, in
queste stime verranno opportunamente ridotti in modo da essere 915, (il
numero massimo di dati elaborabili da Microfit 4.0 in relazione alle 135
variabili impiegate).
Dal punto di vista numerico SBA, può assumere solo valori positivi o uguali a
zero, tali valori sono distribuiti su tutto il semiasse positivo delle ascisse di un
piano cartesiano. Essa inoltre, misura un comportamento di spesa, quindi si
può assumere che essa sia distribuita log-normalmente. Si definirà SB,
(dall’inglese spending behaviour) come il logaritmo della variabile originaria
SBA. Se la variabile SBA è distribuita log-normalmente allora, il suo logaritmo
log(SBA)=SB, è distribuito normalmente. I regressori utilizzati per spiegare
SB, (MP e PP), indicheranno rispettivamente la tipologia di tessuti preferite la
tipologia di rivenditore che si preferisce. Con MP si indicherà la preferenza
per le fibre sintetiche o per un misto di fibre sintetiche e naturali oppure per
le fibre naturali. Con PP si farà invece riferimento alla preferenza tra i grandi
magazzini self-service, i centri commerciali con annessi piccoli negozi
commerciali e i punti specializzati nella vendita di articoli sportivi. L’inclusione
di MP tra i regressori avrà l’obiettivo di verificare, nell’ambito dei segmenti
identificati, se una strategia di prodotto, in questo caso, l’utilizzo di fibre
sintetiche o naturali, possa giustificare un aumento del prezzo del capo
d’abbigliamento. La regressione di SB su PP, permetterà invece di
quantificare l’efficacia di una strategia di Placement ovvero quella strategia
del Marketing-Mix che aumenta i ricavi aziendali, in base alla scelta più
opportuna del canale di distribuzione.
Si effettuerà inizialmente la regressione di SB su MP e PP assumendo
l’ipotesi che il mercato non sia segmentato. Basterà in questo caso effettuare
una stima OLS dei parametri delle suddette variabili inserendo anche una
costante per catturare l’eventuale esistenza di livelli nel comportamento di
spesa degli intervistati. Dall’esame degli indicatori statistici di significatività e
dai tests diagnostici si verificherà se il mercato presenta segni di eterogeneità
ed eventualmente si procederà all’effettuazione della procedura di
segmentazione. Si ipotizzerà l’esistenza di tre segmenti per i quali si
compieranno 71 iterazioni. Successivamente si effettueranno stime
ipotizzando l’esistenza di due segmenti per i quali si effettueranno 80
iterazioni.
13
Verrà fornita l’analisi dei risultati intermedi, specialmente per i valori delle
probabilità a posteriori, delle ampiezze dei segmenti, dei valori delle funzioni
di Log-Verosimiglianza, in modo da comprendere il processo di convergenza
ottenuto con le iterazioni. I risultati finali saranno considerati innanzitutto
secondo un’ottica econometrica, attraverso la quale si analizzeranno i tests
diagnostici per verificare la
correttezza delle regressioni, nonché gli indicatori di significatività dei
parametri. Si effettuerà quindi un’analisi comparata con i risultati ottenuti dalla
regressione su tutto il campione e si verificherà (comparando gli indicatori di
significatività dei parametri), l’effettiva presenza di segmenti di mercato. I
valori dei parametri e le ampiezze dei segmenti saranno considerati secondo
un’ottica di marketing. I valori dei parametri rappresenteranno le elasticità
esistenti tra la variabile dipendente e i regressori; essi rappresentano quindi
chiari strumenti a disposizione del management per formulare efficaci
strategie di marketing.