Your browser doesn't support javascript.
loading
Mostrar: 20 | 50 | 100
Resultados 1 - 5 de 5
Filtrar
Mais filtros











Intervalo de ano de publicação
1.
Artigo em Inglês | MEDLINE | ID: mdl-39321042

RESUMO

BACKGROUND AND OBJECTIVES: This study aimed to compare socio-cognitive skills and emotion comprehension between children with Autism Spectrum Disorder (ASD) and children with neurotypical development. METHODS: This quantitative, cross-sectional, controlled study involved 19 children in each group, matched by age (6-12 years) and sex. The assessments examined cognitive aspects (Intelligence Quotient was assessed using the Vocabulary and Matrix Reasoning subtests; working memory using the digit span and letter-number sequencing subtests; attention using the Continuous Performance Test - Identical Pairs; and executive functions using the Trail Making Test), social functions (Children's Social Skills, Behavior Problems, and Academic Competence Inventory), and emotion comprehension (language was assessed using the Strange Stories Test; emotional facial expressions using the digital emotion comprehension test; emotional/affective prosody using the Profiling Elements of Prosody in Speech-Communication - Brazilian Portuguese adapted version). RESULTS: The group with ASD exhibited better performance in executive functions (p=0.02). However, they lagged the control group in social skills (p=0.04), behavior problems (p=0.03), and emotion comprehension (language, facial expressions, and prosody) (all p<0.05). CONCLUSION: The findings indicate that children with ASD have diminished performance in social skills and emotion comprehension compared to children with neurotypical development. Therefore, the development of technologies and/or therapeutic interventions that address these deficits among children with ASD is recommended.

2.
Rev. CEFAC ; 26(5): e3624, 2024. tab
Artigo em Inglês | LILACS-Express | LILACS | ID: biblio-1569488

RESUMO

ABSTRACT Purpose: to verify whether the Hoosier Vocal Emotions Collection corpus allows the identification of different emotional prosodies in Brazilian adults. Methods: 60 healthy adults equally distributed by sex, aged between 18 and 42 years, participated in the Mini-Mental State Examination and subtests related to prosody (Montreal communication battery and those from the Hoosier Vocal Emotions Collection corpus, with 73 pseudowords produced by two different actresses). The results were analyzed using descriptive statistics and the Chi-square test, which had a significance of 5%. Results: in general, the emotional prosodies from the Hoosier Vocal Emotions Collection were identified with an average accuracy of 43.63%, with the highest hits, in descending order, for neutrality, sadness, happiness, disgust, anger, and fear. As for sex, there were statistically significant differences regarding the correct answers in the neutrality and disgust prosodies for males, while for females, there were differences in happiness and anger prosodies. Both sexes had more incredible difficulty in identifying prosody related to fear. Conclusion: the Hoosier Vocal Emotions Collection corpus allowed the identification of the emotional prosodies tested in the studied sample, with sexual dysmorphism to emotional prosodic identification being found.


RESUMO Objetivo: verificar se o corpus do Hoosier Vocal Emotions Collection permite a identificação de diferentes prosódias emocionais em adultos brasileiros, além de vislumbrar se a respectiva identificação é igual entre os sexos. Métodos: 60 adultos hígidos distribuídos igualmente pelo sexo, com idades entre 18 e 42 anos, participaram do Mini-Exame do Estado Mental e de subtestes relacionados à prosódia (bateria Montreal de comunicação e os do corpus do Hoosier Vocal Emotions Collection, com 73 pseudopalavras produzidas por duas atrizes distintas). A análise dos resultados ocorreu por estatística descritiva e pelo teste Qui-quadrado com significância de 5%. Resultados: de forma geral, as prosódias emocionais do Hoosier Vocal Emotions Collection foram identificadas com precisão média de 43,63%, com maiores acertos, em ordem decrescente, para: neutro, tristeza, alegria, aversão, raiva e medo. Em relação ao sexo, houve diferenças estatisticamente significantes quanto aos acertos nas prosódias de neutralidade e aversão para o masculino, enquanto para o feminino nas prosódias de alegria e raiva. Ambos os sexos apresentaram maior dificuldade na identificação da prosódia relacionada ao medo. Conclusão: o corpus do Hoosier Vocal Emotions Collection permitiu a identificação das prosódias emocionais testadas na amostra estudada, sendo constatada presença de dismorfismo sexual em relação à identificação prosódica emocional.

3.
Audiol., Commun. res ; 29: e2889, 2024. tab
Artigo em Português | LILACS | ID: biblio-1557153

RESUMO

RESUMO Objetivo avaliar a capacidade de estudantes de medicina para reconhecer emoções pela voz e expressão facial, por meio de avaliações de percepção emocional da entonação vocal e das expressões faciais. Métodos estudo com delineamento transversal observacional. Para avaliação do reconhecimento de emoções pelas expressões faciais, utilizou-se um teste composto por 20 vídeos de microexpressões faciais e, para avaliação do reconhecimento emocional pela voz, utilizou-se o Protocolo de Reconhecimento de Emoções Prosódicas Básicas, baseado no banco de dados de Burkhardt. Para análise estatística, foram utilizados os testes de Friedman, Shapiro-Wilk, teste t de Student ou Mann-Whitney e o coeficiente de correlação de Pearson ou Spearman. Resultados o estudo foi composto por 38 alunos, com média de idade de 20,8 (±2,5). O reconhecimento de emoções pela voz foi significativamente superior, comparado com os resultados do teste de reconhecimento de emoções pelas expressões faciais. Houve correlação positiva entre a idade e a habilidade de reconhecer emoções pelas expressões faciais. O gênero masculino apresentou taxa significativa de acertos, superior ao gênero feminino na habilidade de reconhecer emoções pela expressão facial. As emoções com maior média de acertos pela expressão facial foram surpresa, alegria e desprezo, enquanto, por meio da voz, as emoções foram raiva, medo e tristeza. Conclusão a capacidade de reconhecimento de emoções por estudantes de medicina foi maior na avaliação de percepção emocional por meio da voz.


ABSTRACT Purpose To evaluate the ability of medical students to recognize emotions through voice and facial expression through assessments of emotional perception of vocal intonation and functional expressions. Methods Observational cross-sectional study. To evaluate the recognition of emotions by facial expressions, a test composed of 20 videos of facial microexpressions was used, and to evaluate the emotional recognition by voice, the protocol of prosodic impressions of basic emotions, based on the Burkhardt database, was used. For statistical analysis, the Friedman, Shapiro-Wilk, Student t, Mann-Whitney and Pearson or Spearman correlation coefficient tests were used. Results The study consisted of 38 students, with an average age of 20.8 (±2.5). The recognition of emotions through the voice was significantly superior to the one through facial expressions. There was a positive correlation between age and the ability to recognize emotions through facial expressions. Males had a significantly higher hit rate than females in the ability to recognize emotions through facial expression. The emotions with the highest average success rates through facial expression were surprise, joy and contempt, while, through the voice, the emotions were anger, fear and sadness. Conclusion The ability to recognize emotions by medical students was greater when assessing emotional perception through the voice.


Assuntos
Humanos , Masculino , Feminino , Estudantes de Medicina , Expressão Facial , Reconhecimento de Voz , Estudos Transversais
4.
Audiol., Commun. res ; 28: e2829, 2023. tab
Artigo em Português | LILACS | ID: biblio-1527925

RESUMO

RESUMO Objetivo descrever quais são as habilidades auditivas do processamento auditivo central mais frequentes, relatadas por um grupo de especialistas para a realização do exame de Comparação de Locutor, tradicionalmente realizado por peritos forenses. Métodos estudo prospectivo, descritivo, com análise quantitativa e qualitativa. Os dados foram obtidos por meio de um consenso de especialistas. Participaram da reunião cinco fonoaudiólogos, sendo dois especialistas em audiologia, dois especialistas em voz e uma fonoaudióloga perita. A reunião foi realizada de forma virtual e síncrona, com duração de uma hora e 30 minutos. As tarefas realizadas durante o exame de Comparação de Locutor foram consideradas a partir de um protocolo disponível na literatura. As especialistas em fonoaudiologia receberam explicações a respeito de cada uma das tarefas e foram solicitadas a discutir sobre quais as habilidades do processamento auditivo central estariam envolvidas na execução de cada uma delas. Resultados sete habilidades foram consideradas na reunião dos especialistas como imprescindíveis para as tarefas realizadas no exame de Comparação de Locutor. A ordenação temporal foi a habilidade mais citada, podendo estar presente em seis tarefas, e a tarefa de transcrição do material de fala foi mencionada como sendo a que necessita de mais habilidades do processamento auditivo central. Conclusão Sete habilidades foram consideradas na reunião dos especialistas como imprescindíveis para as tarefas realizadas no exame de Comparação de Locutor. A ordenação temporal foi a habilidade mais citada, podendo estar presente em seis tarefas e a tarefa de transcrição do material de fala foi mencionada como sendo a que necessita de mais habilidades do processamento auditivo central


ABSTRACT Purpose to describe which abilities of central auditory processing are more frequently related for the group of specialists to the performance of the speaker comparison test (CL), traditionally performed by forensic experts. Methods a prospective, descriptive study with quantitative and qualitative analysis and data were obtained through a consensus of experts. Five speech therapists participated in the meeting, two specialists in audiology (EA), two specialists in voice (VS), and an expert speech therapist (FP). The meeting was held virtually and synchronously, lasting 1 hour and 30 minutes. The tasks performed during the Speaker Comparison (LC) exam were considered from a protocol available in the literature. The AEs received explanations about each of the tasks and were asked to discuss which auditory processing skills (ACP) would be involved in the performance of each of them. Results seven PAC skills were considered in the experts' meeting as essential for the tasks performed in the CL exam. Temporal ordering was the most cited skill, being present in six tasks, and the speech material transcription task is the one that requires more skills from the PAC. Conclusion Seven PAC skills were considered in the experts' meeting as essential for the tasks performed in the CL exam. Temporal ordering was the most cited skill, being present in six tasks, and the speech material transcription task is the one that requires more skills from the PAC.


Assuntos
Humanos , Percepção Auditiva , Qualidade da Voz , Fonoaudiologia , Medicina Legal
5.
Rev. ing. bioméd ; 3(5): 75-82, ene.-jun. 2009. graf
Artigo em Inglês | LILACS | ID: lil-770897

RESUMO

An externally actuated glove, controlled by a microprocessor, is being developed to assist finger extension in stroke survivors. The goal of this device is to allow repeated practice of specific tasks for hand therapy in the home environment. The device allows the user three control modes: voice recognition, electromyography or manual. These modes can be used either independently or combined according to the needs of the user. Both position and force feedback are available for control and safety. Initial testing of the prototype has shown promising performance.


Se presenta el desarrollo de un guante activado externamente y controlado por un microprocesador para asistir la extensión de los dedos en pacientes con derrame cerebral. La meta del dispositivo es permitir la repetición de tareas específicas para realizar terapia de la mano en un ambiente casero. El usuario puede controlar el dispositivo por tres medios diferentes: reconocimiento de voz, electromiografía o manualmente. Estos medios pueden ser usados tanto independientemente como en combinación según las necesidades del paciente. Para el control y la seguridad, se tiene retroalimentación de posición y de fuerza. Las pruebas iniciales del prototipo han demostrado un desempeño prometedor.

SELEÇÃO DE REFERÊNCIAS
DETALHE DA PESQUISA