RESUMO Objetivo: Este estudo avaliou a confiabilidade interobservador e intraobservador da classificação AO para radiografias simples em fraturas do terço distal do punho.Métodos Trinta observadores, divididos em três grupos (residentes de ortopedia e traumatologia, ortopedistas e cirurgiões de mão), classificaram 52 fraturas do terço distal do antebraço com radiografias simples. Após quatro semanas, os mesmos observadores avaliaram as mesmas 52 fraturas em ordem aleatória. O índice kappa foi usado para estabelecer o nível de concordância entre os observadores individualmente e entre os grupos de residentes, ortopedistas e cirurgiões da mão, bem como para avaliar a concordância intraobservador. O índice de kappa foi interpretado conforme proposto por Landis e Koch. Resultados: A confiabilidade interobservador global da classificação AO foi considerada baixa (0,30). Os três grupos apresentaram índices globais de concordância considerados baixos (residentes, 0,27; ortopedistas, 0,30 e cirurgiões da mão, 0,33). A concordância intraobservador global obteve índice moderado (0,41), foi maior no grupo dos cirurgiões da mão, no qual foi considerada moderada (0,50). No grupo dos residentes e ortopedistas foi considerada baixa, com valores de 0,30 e 0,33, respectivamente. Conclusão: A partir desses dados, concluímos que a classificação AO para fraturas do punho apresenta baixa reprodutibilidade interobservador e moderada reprodutibilidade intraobservador.
ABSTRACT Objective: This study evaluated the intraobserver and interobserver reliability of the AO classification for standard radiographs of wrist fractures. Methods: Thirty observers, divided into three groups (orthopedic surgery senior residents, orthopedic surgeons, and hand surgeons) classified 52 wrist fractures, using only simple radiographs. After a period of four weeks, the same observers evaluated the initial 52 radiographs, in a randomized order. The agreement among the observers, the groups, and intraobserver was obtained using the Kappa index. Kappa-values were interpreted as proposed by Landis and Koch. Results: The global interobserver agreement level of the AO classification was considered fair (0.30). The three groups presented fair global interobserver agreement (residents, 0.27; orthopedic surgeons, 0.30; hand surgeons, 0.33). The global intraobserver agreement level was moderated. The hand surgeon group obtained the higher intraobserver agreement level, although only moderate (0.50). The residents group obtained fair levels (0.30), as did the orthopedics surgeon group (0.33). Conclusion: The data obtained suggests fair levels of interobserver agreement and moderate levels of intraobserver agreement for the AO classification for wrist fractures.