SciELO - Scientific Electronic Library Online

 
vol.15 issue2Normatization of the Brazilian Utrecht Work Engagement Scale author indexsubject indexarticles search
Home Pagealphabetic serial listing  

Avaliação Psicológica

Print version ISSN 1677-0471On-line version ISSN 2175-3431

Aval. psicol. vol.15 no.2 Itatiba Aug. 2016

http://dx.doi.org/10.15689/ap.2016.1502.ed 

EDITORIAL

DOI: 10.15689/ap.2016.1502.ed

 

 

A análise fatorial é um método analítico bastante popular e responsável por viabilizar importantes avanços na avaliação e na compreensão dos fenômenos psicológicos. Não obstante, o uso dessa técnica pode envolver uma série de decisões nem sempre fáceis de tomar. O presente editorial aborda a questão da retenção fatorial, ou seja, o processo decisório acerca do número de fatores a serem mantidos em uma análise exploratória. São comparadas as recomendações de alguns métodos de retenção fatorial quanto ao número de fatores em dois bancos de dados simulados, com dimensionalidade conhecida.

São diversos os métodos de retenção fatorial existentes. Dois métodos simples e populares são o “critério de Kaiser” (Kaiser, 1960) e o gráfico screeplot (Cattell, 1966). Enquanto o primeiro consiste em reter tantos fatores quantos forem os autovalores ≥1, o segundo se dá a partir da plotagem de todos os autovalores empíricos, com o intuito de identificar o ponto em que há uma quebra brusca na quantia de variância explicada (o “joelho” ou “cotovelo” do gráfico). Há também outras estratégias mais refinadas. Um exemplo é a análise paralela (Horn, 1965) e a análise paralela com permutação dos dados (Timmerman & Lorenzo-Seva, 2011), que indicam o número de fatores com autovalor maior do que o esperado ao acaso. Outros métodos são o Hull (Urbano Lorenzo-Seva, Timmerman, & Kiers, 2011) e o critério de informação bayesiana (BIC; Schwarz, 1978), ambos com o objetivo de apontar uma solução parcimoniosa, isto é, manter um equilíbrio entre a explicação dos dados e o número de fatores. Outra opção, a média mínima parcial (Velicer, 1976), revela a solução com menores resíduos, ou seja, que melhor satisfaz a independência local teórica do modelo fatorial. A seu turno, o critério da estrutura simples (Revelle & Rocklin, 1979) indica a solução potencialmente mais interpretável, com menos cargas cruzadas. Ainda outra técnica, o critério dos dados de comparação (Ruscio & Roche, 2012), sugere, a partir da simulação de dados, a solução fatorial que melhor reproduz os dados amostrais. Em função da brevidade da exposição aqui feita, leitores interessados nas fundamentações de cada um desses métodos são convidados a consultarem as referências originais ou a revisão de Damásio (2012), que contempla algumas dessas técnicas.

Embora todos esses métodos tenham o mesmo propósito, eles diferem no que diz respeito a quão bem cumprem seu objetivo. Apesar da popularidade, as evidências empíricas contra-recomendam o uso do critério de Kaiser em função da sua alta imprecisão (Costello, 2005; Damásio, 2012; Fabrigar, Wegener, Maccallum, & Strahan, 1999; Gorsuch, 1997; Patil, Singh, Mishra, & Todd Donavan, 2008; Ruscio & Roche, 2012). No estudo de Ruscio e Roche (2012), por exemplo, o método acertou o número correto de fatores latentes em apenas 8,77% de um total de 10.000 bancos de dados simulados. O critério de Cattel (screeplot), por sua vez, pode não ser confiável tanto pela possibilidade de haver mais de uma quebra no gráfico quanto por estar sujeito a diferenças individuais na interpretação. Em contraste, diversos métodos modernos têm se saído bem em estudos de simulação, tais como o Hull (acima de 90% de precisão no estudo de Urbano Lorenzo-Seva et al., 2011), a análise paralela com permutação de valores (acima de 99% de precisão no estudo de Timmerman & Lorenzo-Seva, 2011) e a técnica dos dados de comparação (87,14% de precisão no estudo de Ruscio & Roche, 2012).

No presente editorial, buscou-se comparar as recomendações de todos esses métodos ao analisar dois bancos de dados simulados1 a partir de uma solução fatorial definida a priori. Em ambos os casos, três fatores foram especificados como causas latentes para as respostas a um conjunto de 12 itens ordinais (escala Likert) com quatro escores possíveis (1, 2, 3 e 4). Para cada fator, foram especificados quatro itens com carga igual a 0,60; cargas cruzadas de baixa magnitude (0,10) foram também inseridas, para haver uma maior aproximação a dados reais, em que cargas cruzadas são algo comum. Um dos bancos de dados foi gerado mantendo-se os fatores como ortogonais entre si, enquanto o outro foi gerado com a especificação adicional de que os fatores eram correlacionados em 0,50. As simulações e análises foram conduzidas com os pacotes simsem e psych do programa R e o programa Factor 10 (Lorenzo-Seva & Ferrando, 2013). Todas as análises foram feitas levando-se em consideração a natureza ordinal das variáveis, ou seja, optando pelo uso de correlações policóricas quando possível (Asún, Rdz-Navarro, & Alvarado, 2015).

Os resultados, que constam na Tabela 1, apresentam as sugestões de cada método quanto ao número de fatores a reter. Dois aspectos merecem atenção. Primeiro, à exceção da média mínima parcial, as técnicas se saíram bem na análise do banco cujo modelo era ortogonal. Em contraste, houve diferenças na análise do banco cujo modelo era oblíquo, situação na qual apenas os dados de comparação e o critério de informação bayesiana se saíram bem. Isso sugere que seria uma boa prática sempre incluir um desses dois métodos na análise de retenção. Em segundo lugar, de fato, o critério de Kaiser e o screeplot não se saíram bem na análise do banco oblíquo. No entanto, o mesmo ocorreu com os métodos Hull, média mínima parcial, análise paralela com permutação e estrutura simples. Isso deixa evidente o quanto é importante evitar embasar a retenção fatorial em apenas um método e sem a teoria psicológica como guia.

 

 

Ao integrar as evidências disponíveis de estudos prévios e as análises feitas neste editorial, o método dos dados de comparação parece ser um dos mais confiáveis. Além de apontar o número correto de fatores em 87,14% das vezes no estudo de Ruscio e Roche (2012), acertou em ambos os bancos de dados aqui utilizados. Não obstante, é necessário deixar claro que este editorial não tem a pretensão de ser um estudo sério de simulação de dados, situação em que seria necessário efetuar análises de milhares de bancos de dados. Os resultados não representam, portanto, o desempenho médio das ferramentas de análise avaliadas – seria injustiça dizer o contrário. Estudos robustos sugerem um alto nível de precisão também para os métodos Hull (Urbano Lorenzo-Seva et al., 2011) e análise paralela com permutação de dados. Por esse motivo, é razoável que eles sejam também ser priorizados, junto ao método dos dados de comparação.

A mensagem principal do presente editorial é que faz diferença qual método é empregado para fundamentar a escolha do número de fatores em uma análise exploratória. Nem todos os métodos são igualmente precisos, e cada um deles pode estar sujeito a vieses específicos, o que demanda uma busca constante de informação por parte de pesquisadoras e pesquisadores da área. Pode ser vantajosa a utilização de mais de um método de retenção, o que maximiza a probabilidade de ter, entre o rol das sugestões oferecidas, a solução fatorial verdadeira. Fatores são raramente ortogonais na prática, e essa situação pode implicar desvantagens para algumas técnicas, como evidenciado pelos achados aqui relatados.

Uma ressalva é que, em geral, os componentes latentes que explicam as respostas aos itens envolvem características dos itens, das pessoas e da situação de testagem (Bornstein, 2011; Geiser et al., 2015). Infelizmente, apesar de seu inegável valor, os métodos aqui testados não contemplam essa complexidade. Técnicas confirmatórias podem ser mais adequadas para tanto, uma vez que admitem o teste de hipóteses avançadas sobre as distintas fontes de influência latente que compõem o processo de resposta aos itens.

 

Referências

Anna B. Costello, J. W. O. (2005). Best practices in exploratory factor analysis: Four recommendations for getting the most from your analysis. Practical Assessment, Research & Evaluation, 10(7), 1-9.         [ Links ]

Asún, R. A., Rdz-Navarro, K., & Alvarado, J. M. (2015). Developing Multidimensional Likert Scales Using Item Factor Analysis: The Case of Four-point Items. Sociological Methods & Research, 0049124114566716–. doi:10.1177/0049124114566716         [ Links ]

Bornstein, R. F. (2011). Toward a process-focused model of test score validity: Improving psychological assessment in science and practice. Psychological Assessment, 23(2), 532–544. doi:10.1037/a0022402         [ Links ]

Cattell, R. B. (1966). The Scree Test For The Number Of Factors. Multivariate Behavioral Research, 1(2), 245-276. doi:10.1207/ s15327906mbr0102_10         [ Links ]

Damásio, B. F. (2012). Uso da análise fatorial exploratória em psicologia. Avaliação Psicológica, 11(2), 213-228.         [ Links ]

Fabrigar, L., Wegener, D., Maccallum, R., & Strahan, E. (1999). Evaluating the use of exploratory factor analysis in psychological research. Psychological Methods, 4(3), 272-299.         [ Links ]

Geiser, C., Litson, K., Bishop, J., Keller, B. T., Burns, G. L., Servera, M., & Shiffman, S. (2015). Analyzing person, situation and person × situation interaction effects: Latent state-trait models for the combination of random and fixed situations. Psychological Methods, 20(2), 165-192. doi:10.1037/met0000026         [ Links ]

Gorsuch, R. L. (1997). Exploratory factor analysis: its role in item analysis. Journal of Personality Assessment, 68(3), 532-560. doi:10.1207/ s15327752jpa6803_5         [ Links ]

Horn, J. (1965). A rationale and test for the number of factors in factor analysis. Psychometrika, 30(2), 179-185. doi:10.1007/BF02289447         [ Links ]

Kaiser, H. F. (1960). The Application of Electronic Computers to Factor Analysis. Educational and Psychological Measurement, 20(1), 141-151. doi:10.1177/001316446002000116         [ Links ]

Lorenzo-Seva, U., & Ferrando, P. J. (2013). FACTOR 9.2: A Comprehensive Program for Fitting Exploratory and Semiconfirmatory Factor Analysis and IRT Models. Applied Psychological Measurement, 37(6), 497-498. doi:10.1177/0146621613487794         [ Links ]

Lorenzo-Seva, U., Timmerman, M. E., & Kiers, H. A. L. (2011). The Hull Method for Selecting the Number of Common Factors. Multivariate Behavioral Research, 46(2), 340-364. doi:10.1080/00273171.2011.564527         [ Links ]

Patil, V. H., Singh, S. N., Mishra, S., & Todd Donavan, D. (2008). Efficient theory development and factor retention criteria: Abandon the “eigenvalue greater than one” criterion. Journal of Business Research, 61(2), 162-170. doi:10.1016/j.jbusres.2007.05.008         [ Links ]

Revelle, W., & Rocklin, T. (1979). Very Simple Structure: An Alternative Procedure For Estimating The Optimal Number Of Interpretable Factors. Multivariate Behavioral Research, 14(4), 403-414. doi:10.1207/s15327906mbr1404_2         [ Links ]

Ruscio, J., & Roche, B. (2012). Determining the number of factors to retain in an exploratory factor analysis using comparison data of known factorial structure. Psychological Assessment, 24(2), 282-292. doi:10.1037/a0025697         [ Links ]

Schwarz, G. (1978). Estimating the Dimension of a Model. The Annals of Statistics, 6(2), 461-464.         [ Links ]

Timmerman, M. E., & Lorenzo-Seva, U. (2011). Dimensionality assessment of ordered polytomous items with parallel analysis. Psychological Methods, 16(2), 209-220. doi:10.1037/a0023353         [ Links ]

Velicer, W. (1976). Determining the number of components from the matrix of partial correlations. Psychometrika, 41(3), 321-327. doi:10.1007/ BF02293557         [ Links ]

 

Nelson Hauck Filho

Editor Associado

Universidade São Francisco

Creative Commons License