Bond-Based Health Literacy & AI

 



This text is the result of reflection based on concrete experiences from Brazil, especially from the project I have coordinated since 2016, called CBRIS (Brazilian Reference Center for Health Information). My goal here is to propose a conceptual reconfiguration of health literacy, shifting it from a functional approach, centred on the transmission of health information, to a bond-based approach, grounded in interaction, listening, and human presence — even in contexts mediated by algorithms.

*** 

Bond-Based Health Literacy and Artificial Intelligence

 Maria Cristiane Barbosa Galvão

University of Sao Paulo, Brazil

mgalvao@usp.br

Introduction

This text is the result of reflection based on concrete experiences from Brazil, especially from the project I have coordinated since 2016, called CBRIS (Brazilian Reference Center for Health Information). My goal here is to propose a conceptual reconfiguration of health literacy, shifting it from a functional approach, centred on the transmission of health information, to a bond-based approach, grounded in interaction, listening, and human presence — even in contexts mediated by algorithms.

 

What is health literacy?

Since the origin of the term health literacy (Simonds, 1974), it is observed that most of the articles and books on the subject associate it with the ability of a person to seek, access, understand, evaluate, and apply health-related information in order to make conscious and safe decisions about themselves or others (Institute of Medicine, 2004; Sørensen, 2019).

However, I understand that this definition does not capture the subjective processes, whether informational or mental, in which patients and caregivers are involved. Not every patient is looking for objective, emotion-free information to make a decision. Many are looking for relief, for listening, for comfort, for someone who cares. In other words, good health care is that which recognizes the complexity of human experience in the face of suffering, and this requires more than just objective information made available in a leaflet, on an institutional or governmental website for potential decision-making. On the other hand, decision-making based solely on objective information is utopian and distant from humanity. Likewise, health information cannot be understood as a separate instance from full health care.

It is not uncommon for health professionals to focus entirely on objectivity and seek some distance from the “case” as a way of softening their own psychological suffering. But who said that objectivity is always the best path? Good care also involves closeness to subjectivity: affection, empathy, time, and attention. It involves the smile, the openness.

At CBRIS, many interactions begin with a simple “good morning, how are you?”. We listen to the pain before offering any information. Because people need to feel accepted before they are open to accepting information. It is an exchange, a human connection.

I hypothesize that this may explain the fact that we have so much information available and so little of it being used: we have become too objective and have forgotten that human beings have a heart, that they need attention, affection, that they have a soul, and that sometimes the patient does not want a cure, but precisely the end, the departure.

We also need to revisit our view of numbers and statistics and suppose that, if the quantitative performance was good, the result was also good. We will all die and we will all be in the statistics of mortality or morbidity. But the question must be: how did we live, what did we feel, and how are we going to disconnect? Will there be welcoming? What good is objective information if it is just another statistic to tell me that my life is ending or that the medication was ineffective?

My words may seem disconnected, but they have a purpose: human life has something that no computational system can simulate — the singularity of subjectivity and affectivity. That is what health literacy must protect in times of artificial intelligence (AI): the unique relationship between human beings.

Thus, I understand that health professionals today need to use their listening, their sensitivity, and their intuition. Objective information, in many cases, can already be offered by AI. But connection, emotion, and a relationship with the soul of the other — only humans can offer that.

 

What is bond-based health literacy?

I have been observing the concept of health literacy for many years, and this concept is not very explanatory to me when I answer patients' questions. I understand it to be a colonizing concept, where the person who measures literacy is focused on an objectivity that does not exist in everyday life when there is a human life that requires attention. In this way, I dare to think of a different concept.

I thus propose bond-based health literacy (BBHL), which refers to the relational and interpretive capacity to construct meaning, trust, and care through verbal interaction between human beings. It is a communicative process shaped by multiple layers — cognitive, affective, and contextual — in which health-related information is shared, welcomed, and re-signified in light of subjective experience and interpersonal connection.

In contrast to functionalist approaches, which focus exclusively on the ability to obtain, process, and understand health information and services, bond-based health literacy recognizes that decision-making in health occurs within dialogical spaces. In these spaces, intersubjectivity, qualified listening, and mutual presence constitute essential foundations for more ethical, situated, and responsive decisions to the lived realities of the individuals involved.

How does AI function in accessing health information?

When we talk about AI, we are in the context of objectivity, logic, the algorithm — we need to "learn the language of AI." Technology alone is like a piano without a pianist. It may have perfect sound, advanced structure, but it does not create music by itself. Everything begins and ends with the human being.

Therefore, in the field of objectivity, the only certainty we have is that the human being needs to be educated in order to make the best use of the knowledge and technologies available. The human being needs to understand language, logic, ethics, science, and poetry. This forms the cradle of the best knowledge in health and also the foundation for an intelligent and at the same time sensitive use of technology.

Just as the pianist must learn to read the score to play the piano, AI users — whether patients or health professionals — need to develop digital literacy to understand and question the information and data they receive. Without this, AI can be a risk. A risk because it may present partial information, unsupported information, or information that reflects an institutionalized bias through algorithms.

In our studies, we have seen that AI performs well with simple questions (“how to measure blood glucose?”), and can be useful in such cases. But when the question involves pain, fear, exclusion, and subjectivity, it may respond generically. That is why AI only truly helps when it is accompanied by people prepared to use it with ethics, critical analysis, and discernment. Issues related to the bond become compromised.

Is there evidence for the use of AI in health literacy?

The word “evidence” in health refers to David Sackett and the Oxford levels of evidence, which became a reference in evidence-based medicine. In the evidence pyramid, the lowest level is expert opinion, and the highest are systematic reviews and meta-analyses (Galvão and Ricarte, 2024).

Sharing our experiences is a sign that we have some evidence. But perhaps we are not yet at the top of the pyramid. And it is natural that we are at this initial stage, because we are living through a historical turning point: the ideas of AI from the 1950s have finally materialized, and now all of us are trying to understand what is happening.

In Brazil, through CBRIS, we have served more than one million people since 2016. In 2024, we began to integrate AI into the project. The result? With a well-trained academic team, it is possible to use AI to answer public health questions more quickly and efficiently — but always with human supervision, critical awareness, and ethics.

We compared human and AI responses to real questions from patients. When asked “How to measure blood sugar?”, AI provided a useful, correct, and clear answer. But when asked “Is cannabidiol effective for autism?”, AI responded with enthusiasm and generalizations, ignoring the fragility of scientific evidence and associated risks. Human responses cited systematic reviews and encouraged clinical caution.

When asked “What is risperidone used for?”, AI omitted important side effects such as sedation and weight gain. Human responses included this information with empathy and warned against self-medication.

These differences show that yes, AI can be part of health literacy initiatives — but only when there is curation, mediation, and ethical responsibility. Currently, it is not reasonable to expect that people with low levels of education can evaluate on their own the quality or risks of an algorithmic response. This requires critical/objective thinking that develops through education, time, support, and the knowledge of the word.

Therefore, yes, there is evidence that AI can be useful in informational processes in health. But there are also limits and a great responsibility. AI can serve care, but care must continue to be a profoundly human act, based on the bond.

How can AI contribute to bond-based health literacy?

In the context of bond-based health literacy, AI can act as an extension of human listening — but never as its replacement. It is capable of identifying patterns, organizing recurring questions, and anticipating informational needs, thus freeing up human time and attention for the construction of authentic bonds. For example, systems like CBRIS, when integrated with AI, can handle initial questions. However, the experience of pain and vulnerability still demands human presence. AI can assist with filtering; humans with bonding.

In addition, AI can function as a linguistic mediator between individuals and systems. It is capable of translating complex terms, simplifying technical content, and offering explanations in multimodal formats. This expands inclusion, reduces informational inequality, and creates conditions for more horizontal and empathetic communication. AI opens the door. But it is in the bond that health literacy happens.

Under human supervision, AI can also be trained as a programmed empathy tool. It can detect emotional markers in language, such as hesitation, fear, or confusion, and alert health professionals to situations that demand more time, more care, and more human sensitivity. AI may recognize emotion. But only humans are capable of welcoming it.

AI can also act as an augmented memory of care. It is capable of tracking patients' informational journeys, mapping changes in language over time, and offering professionals a more cohesive narrative that supports a deeper bond. This respects each person’s story and helps prevent fragmented care. AI remembers. But only humans are capable of creating meaning.

However, there are unavoidable ethical limits. AI does not comprehend suffering. It does not intuit nuance. It may simulate care, but it cannot feel. Its role, therefore, must remain instrumental, contextual, and ethically supervised.

Although AI can support informational processes in health, it is also capable of generating incorrect, incomplete, unverified, distorted, or scientifically unsupported responses — just like human beings. The fundamental difference is that humans are capable of subjective responsibility, listening, retraction, and ethical repair. When used without critical mediation and qualified supervision, AI amplifies risks by reproducing uncertainties with the appearance of truth.

Conclusion

This text argues that the traditional concept of health literacy is too objective to represent the complexity of the processes involved in health decision-making. As a way of overcoming this issue, it proposes the concept of bond-based health literacy, a concept focused on human connection that transcends the mere existence of health information. The proposal thus detaches itself from functionalist and technocratic models of health literacy, defending that health care is not limited to data transmission, but requires relationship, acceptance, and meaning. Even with the support of artificial intelligence, care remains a profoundly human act.

For now, it is also important to emphasize that bond-based health literacy is not to be confused with information mediation or the humanization of health care, as shown in Table 1.


 Table 1 – Comparison between information mediation, humanization of health care, and bond-based health literacy

Dimension

Information Mediation

Humanization of Health Care

Bond-Based Health Literacy

Epistemological Origin

Information Science, Communication, Librarianship

Collective Health, Bioethics, Public Policies

Epistemology of language, subjectivity, symbolic care; Consolidation of AI

Main Focus

Facilitating access, organization, and use of information

Ensuring dignity, listening, welcoming, and respect in the relationship between professionals and users

Building a bond through the word; resignifying information in the human encounter

Central Object

Information as content to be accessed and understood

Relationship and care as ethical and institutional practices

The word as a symbolic link of trust, listening, meaning, and affection

Level of Action

Technical-communicational (between subject and content)

Political-institutional (protocols, structures, conduct)

Relational-symbolic (in the subjective interaction between humans)

Role of Subjectivity

Acknowledged

Part of ethical and relational care

Foundational and essential. Without subjectivity there is no bond and no literacy

Role of the Professional

Mediator, facilitator of understanding

Ethical caregiver, attentive to the other's needs

Presence, active and affective listening that shares meaning with a focus on health

Role of Technology/AI

Support tool for mediation and access

May be present but does not replace human bonding

May mediate, but never replaces listening and affective bonding between subjects

Practical Example

Librarian who helps the patient find reliable content

Professional who welcomes with respect and empathy

Interaction that begins with “good morning, how are you?” before any information

Final Objective

Efficient understanding of information

Dignified, ethical, and comprehensive care

Meaningful and transformative care, mediated by language and anchored in the human bond

Source: The author


 

References

GALVÃO, M.C.B.; RICARTE, I.L.M. Dos níveis de evidência à revisão sistemática mista, viva e contextualizada. Logeion: Filosofia da Informação, Rio de Janeiro, RJ, v. 11, n. 1, p. e-7323, 2024. Disponível em: https://revista.ibict.br/fiinf/article/view/7323. Acesso em: 20 abr. 2025.

INSTITUTE OF MEDICINE (US) Committee on Health Literacy. Health literacy: a prescription to end confusion. Washington (DC): National Academies Press (US); 2004.

OXFORD CENTRE FO EVIDENCE-BASED MEDICINE. Levels of Evidence. Available at: www.cebm.net/?o = 1025 2009

SACKETT, D. L. et al . Evidence based medicine: what it is and what it isn’t.  BMJ, 312 (7023) 71-72, 1996.

SIMONDS, S.K. Health Education as Social Policy. Health Education Monographs, 2(1_suppl), 1–10, 1974.

SORENSEN, K. Defining health literacy: Exploring differences and commonalities. In: Okan O, Bauer U, Levin-Zamir D, Pinheiro P, Sørensen K, editors. International Handbook of Health Literacy: Research, Practice and Policy across the Life-Span. Bristol: Bristol University Press; 2019.

 

How to cite:

Galvão, M.C.B. et al. Literacia em saúde baseada no vínculo e inteligência artificial [Bond-Based Health Literacy and Artificial Intelligence]. São Paulo : USP, 2025. [DRAFT] DOI: http://dx.doi.org/10.13140/RG.2.2.26190.98885


Literacia em saúde baseada no vínculo e inteligência artificial

Maria Cristiane Barbosa Galvão

Universidade de São Paulo, Brasil

mgalvao@usp.br

Introdução

Este texto é fruto de reflexão a partir de vivências concretas do Brasil, especialmente do projeto que coordeno desde 2016, chamado CBRIS (Centro Brasileiro de Referência em Informação em Saúde). Tenho aqui o objetivo de propor uma reconfiguração conceitual da literacia em saúde, deslocando-a de uma abordagem funcional, centrada na transmissão de informações em saúde, para uma abordagem vincular, fundamentada na interação, na escuta e na presença humana – mesmo em contextos mediados por algoritmos.

 

O que é literacia em saúde?

Desde a origem do termo health literacy (Simonds, 1974), observa-se que grande parte dos artigos e livros sobre a temática o associa à capacidade que uma pessoa tem de buscar, acessar, compreender, avaliar e aplicar informações relacionadas à saúde, a fim de tomar decisões conscientes e seguras sobre si ou sobre outras pessoas (Institute of Medicine, 2004; Sorensen, 2019).

Contudo, entendo que esta definição não captura os processos subjetivos, sejam informacionais ou mentais, nos quais os pacientes e os cuidadores estão envolvidos. Nem todo paciente está buscando uma informação objetiva, desprovida de emoção para tomar uma decisão. Muitos estão buscando o alívio, a escuta, o conforto, alguém que se importe. Dito de outro modo, um bom cuidado em saúde é aquele que reconhece a complexidade da experiência humana diante do sofrimento, e isso requer mais do que apenas informação objetiva disponibilizada em um folheto, em um website institucional ou governamental para potencial tomada de decisão. Por outro lado, a tomada de decisão com base em apenas informação objetiva é utópica e distanciada de humanidade. Igualmente, a informação em saúde não pode ser entendida como uma instância separada da plena assistência em saúde.

Não é raro que profissionais de saúde se concentrem inteiramente na objetividade e busquem algum distanciamento do “caso” como forma de atenuar seu próprio sofrimento psíquico. Mas quem disse que a objetividade é sempre o melhor caminho? Um bom cuidado também envolve proximidade com a subjetividade: afeto, empatia, tempo e atenção. Envolve o sorriso, a abertura.

No CBRIS, muitas interações começam com um simples “bom dia, como vai?”. Escutamos a dor antes de oferecer qualquer informação. Porque as pessoas precisam se sentir aceitas antes de estarem abertas para aceitar informação. Trata-se de uma troca, de uma conexão humana.

Tenho por hipótese que talvez isso explique o fato de termos tanta informação disponível e tão pouco dela sendo usada: nos tornamos objetivos demais e esquecemos que os seres humanos têm coração, que precisam de atenção, de afeto, possuem alma, que às vezes o paciente não quer uma cura, mas justamente o fim, a partida.

Também precisamos revisitar nosso olhar sobre números e estatísticas e supor que, se o desempenho quantitativo foi bom, o resultado também foi. Todos morreremos e todos estaremos nas estatísticas de mortalidade ou morbidade. Mas a pergunta precisa ser: como vivemos, o que sentimos e como vamos nos desligar? Haverá acolhimento? De que adianta uma informação objetiva se esta for mais uma estatística para me dizer que minha vida está no fim ou que o remédio não foi eficaz?

Minhas palavras parecem desconectadas, mas têm um propósito: a vida humana tem algo que nenhum sistema computacional pode simular que é a singularidade da subjetividade e da afetividade. É isso que a literacia em saúde deve proteger em tempos de inteligência artificial (IA): a relação única entre seres humanos.

Assim, eu entendo que os profissionais de saúde hoje precisam usar sua escuta, sua sensibilidade e sua intuição. A informação objetiva, em muitos casos, a IA já poderá oferecer. Mas conexão, emoção e uma relação com a alma do outro, só os humanos podem oferecer.

 

O que é literacia em saúde baseada no vínculo?

Eu estou há muitos anos observando o conceito de literacia em saúde e este conceito não é muito explicativo para mim quando eu atendo dúvidas de pacientes. Entendo que seja um conceito colonizador onde a pessoa que mede a literacia está focada em uma objetividade que não existe no cotidiano quando há uma vida humana que requer atenção. Desta forma, eu ouso pensar em um conceito diferente.

Proponho, assim, a literacia em saúde baseada no vínculo (LSBV), que se refere à capacidade relacional e interpretativa de construir sentido, confiança e cuidado por meio da interação verbal entre seres humanos. Trata-se de um processo comunicativo moldado por múltiplas camadas – cognitivas, afetivas e contextuais – no qual informações relacionadas à saúde são compartilhadas, acolhidas e ressignificadas à luz da experiência subjetiva e da conexão interpessoal.

Em contraste com as abordagens funcionalistas, que se concentram exclusivamente na habilidade de obter, processar e compreender informações e serviços de saúde, a literacia em saúde baseada no vínculo reconhece que a tomada de decisão em saúde ocorre em espaços dialógicos. Nesses espaços, a intersubjetividade, a escuta qualificada e a presença mútua constituem fundamentos essenciais para decisões mais éticas, situadas e responsivas às realidades vividas pelos sujeitos envolvidos.

Como a IA funciona no acesso à informação em saúde?

Quando falamos em IA, estamos no contexto da objetividade, da lógica, do algoritmo, precisamos “aprender a linguagem da IA”. A tecnologia sozinha é como um piano sem pianista. Pode ter som perfeito, estrutura avançada, mas não cria música por si só. Tudo começa e termina com o ser humano.

Portanto, no campo da objetividade, a única certeza que temos é que o ser humano precisa ser educado para tirar o melhor proveito do conhecimento e das tecnologias disponíveis. O ser humano precisa compreender linguagem, lógica, ética, ciência e poesia. Isso forma o berço dos melhores conhecimentos em saúde e também a base para um uso inteligente e ao mesmo tempo sensível da tecnologia.

Assim como o pianista deve aprender a ler a partitura para tocar o piano, os usuários da IA, sejam eles pacientes ou profissionais de saúde, precisam desenvolver literacia digital para compreender e questionar as informações e dados que recebem. Sem isso, a IA pode ser um risco. Um risco por apresentar informações parciais, informações não fundamentadas, ou informações que refletem um preconceito institucionalizado por algoritmos.

Em nossos estudos, vimos que a IA tem bom desempenho com perguntas simples, (“como medir a glicose?”)  e pode ser útil nesses casos. Mas quando a pergunta envolve dor, medo, exclusão e subjetividades, pode responder de forma genérica. É por isso que a IA só ajuda de verdade quando está acompanhada de pessoas preparadas para usá-la com ética, análise crítica e discernimento. As questões relacionadas ao vínculo ficam comprometidas.

 

Existem evidências de uso da IA em literacia em saúde?

A palavra “evidência” na saúde remete a David Sackett  et al. (1996) e os níveis de evidência de Oxford (2009), que se estabeleceu como referência na medicina baseada em evidências. Na pirâmide de evidência, o nível mais baixo é opinião de especialistas, e o mais alto são revisões sistemáticas e metanálises (Galvão; Ricarte, 2024).

Compartilhar nossas experiências é um sinal de que temos alguma evidência. Mas talvez ainda não estejamos no topo da pirâmide. E é natural que estejamos nesse estágio inicial, porque estamos vivendo uma virada histórica: as ideias de IA dos anos 1950 finalmente se concretizaram, e agora todos nós estamos tentando entender o que está acontecendo.

No Brasil, por meio do CBRIS, atendemos mais de um milhão de pessoas desde 2016. Em 2024, começamos a integrar a IA ao projeto. O resultado? Com uma equipe acadêmica bem formada, é possível usar a IA para responder perguntas de saúde pública de forma mais rápida e eficiente, mas sempre com supervisão humana, consciência crítica e ética.

Comparamos respostas humanas e da IA a perguntas reais de pacientes. Quando perguntado “Como medir o açúcar no sangue?”, a IA forneceu uma resposta útil, correta e clara. Mas ao perguntar “O canabidiol é eficaz para autismo?”, a IA respondeu com entusiasmo e generalizações, ignorando a fragilidade das evidências científicas e os riscos associados. As respostas humanas citaram revisões sistemáticas e incentivaram cautela clínica.

Quando perguntado “Para que serve a risperidona?”, a IA omitiu efeitos colaterais importantes como sedação e ganho de peso. As respostas humanas incluíram essas informações com empatia e alertaram contra a automedicação.

Essas diferenças mostram que sim, a IA pode fazer parte de iniciativas de literacia em saúde, mas apenas quando houver curadoria, mediação e responsabilidade ética. Atualmente, não é razoável esperar que pessoas com baixo nível de escolaridade consigam avaliar sozinhas a qualidade ou os riscos de uma resposta algorítmica. Isso exige pensamento crítico/objetivo que se desenvolve por meio da educação, tempo, apoio e o conhecimento da palavra.

Portanto, sim, há evidência de que as IA podem ser úteis em processos informacionais em saúde. Mas também há limites e uma grande responsabilidade. A IA pode servir ao cuidado, mas o cuidado deve continuar sendo um ato profundamente humano baseado no vínculo.

 

Como a IA pode contribuir com a literacia em saúde baseada no vínculo?

No contexto da literacia em saúde baseada no vínculo, a IA pode atuar como uma extensão da escuta humana, mas nunca[2] como sua substituta. Ela é capaz de identificar padrões, organizar dúvidas recorrentes e antecipar necessidades informacionais, liberando, assim, tempo e atenção humana para a construção de vínculos autênticos. Por exemplo, sistemas como o CBRIS, quando integrados à IA, podem lidar com perguntas iniciais. No entanto, a experiência da dor e da vulnerabilidade ainda exige a presença humana. A IA pode auxiliar no filtro; os humanos, no vínculo.

Além disso, a IA pode funcionar como mediadora linguística entre indivíduos e sistemas. Ela tem a capacidade de traduzir termos complexos, simplificar conteúdos técnicos e oferecer explicações em formatos multimodais. Isso amplia a inclusão, reduz desigualdades informacionais e cria condições para uma comunicação mais horizontal e empática. A IA abre a porta. Mas é no vínculo que a literacia em saúde acontece.

Sob supervisão humana, a IA também pode ser treinada como uma ferramenta de empatia programada. Ela pode detectar marcadores emocionais na linguagem, como hesitação, medo ou confusão, e avisar aos profissionais de saúde condições que demandam mais tempo, mais cuidado e mais sensibilidade humana. A IA pode até reconhecer a emoção. Mas apenas os humanos são capazes de acolhê-la.

A IA pode ainda atuar como uma memória ampliada do cuidado. Ela é capaz de acompanhar as trajetórias informacionais dos pacientes, mapear mudanças na linguagem ao longo do tempo e oferecer aos profissionais uma narrativa mais coesa, que favoreça um vínculo mais profundo. Isso respeita a história de cada pessoa e ajuda a evitar a fragmentação do cuidado. A IA lembra. Mas só os humanos são capazes de criar sentido.

No entanto, há limites éticos incontornáveis. A IA não compreende o sofrimento. Ela não intui nuances. Ela pode simular cuidado, mas não pode sentir. Seu papel, portanto, deve permanecer instrumental, contextual e eticamente supervisionado.

Embora a IA possa apoiar processos informacionais em saúde, ela também é capaz de gerar respostas incorretas, incompletas, não verificadas, distorcidas ou desprovidas de embasamento científico — exatamente como os seres humanos. A diferença fundamental é que os humanos são capazes de responsabilidade subjetiva, escuta, retratação e reparação ética. Já a IA, quando utilizada sem mediação crítica e supervisão qualificada, amplifica riscos ao reproduzir incertezas com aparência de verdade.

 

Conclusão

Este texto sustenta que o tradicional conceito de literacia em saúde é objetivo demais para representar a complexidade dos processos envolvidos na tomada de decisão em saúde. E como forma de superação desta problemática propõe o conceito de literacia em saúde baseada no vínculo, um conceito que se apresenta focado na conexão entre pessoas e que transcende a mera existência de uma informação em saúde. A proposta se desapega, assim, de modelos funcionalistas e tecnocráticos da literacia em saúde, defendendo que o cuidado em saúde não se resume à transmissão de dados, mas exige relação, acolhimento e significado. Mesmo com o apoio da inteligência artificial, o cuidado continua sendo um ato profundamente humano.

Por ora, é também importante salientar que a literacia em saúde baseada no vínculo não se confunde com a mediação da informação, com a humanização da assistência em saúde, conforme apresentado no Quadro 1.


 

Quadro 1 Comparação entre a mediação da informação, a humanização da assistência e a literacia em saúde baseada no vínculo

Dimensão

Mediação da Informação

Humanização da Assistência em Saúde

Literacia em saúde baseada no vínculo

Origem Epistemológica

Ciência da Informação, Comunicação, Biblioteconomia

Saúde Coletiva, Bioética, Políticas Públicas

Epistemologia da linguagem, subjetividade, cuidado simbólico; Consolidação da IA

Foco Principal

Facilitar o acesso, a organização e o uso da informação

Garantir dignidade, escuta, acolhimento e respeito na relação entre profissionais e usuários

Construir vínculo por meio da palavra; ressignificar a informação no encontro humano

Objeto Central

A informação como conteúdo a ser acessado e compreendido

A relação e o cuidado como práticas éticas e institucionais

A palavra como elo simbólico de confiança, escuta, sentido e afeto

Nível de Atuação

Técnico-comunicacional (entre sujeito e conteúdo)

Político-institucional (protocolos, estruturas, condutas)

Relacional-simbólico (na interação subjetiva entre humanos)

Papel da Subjetividade

Reconhecida

Parte do cuidado ético e relacional

Fundante e essencial. Sem subjetividade não há vínculo nem literacia

Papel do Profissional

Mediador, facilitador da compreensão

Cuidador ético, atento às necessidades do outro

Presença, escuta ativa e afetiva que compartilha sentido com foco na saúde

Papel da Tecnologia/IA

Ferramenta de apoio à mediação e acesso

Pode estar presente, mas não substitui o vínculo humano

Pode mediar, mas nunca substitui a escuta e o vínculo afetivo entre sujeitos

Exemplo Prático

Bibliotecário que ajuda paciente a encontrar conteúdo confiável

Profissional que acolhe com respeito e empatia

Interação que começa com “bom dia, como vai?” antes de qualquer informação

Objetivo Final

Compreensão eficiente da informação

Atendimento digno, ético e integral

Cuidado significativo e transformador, mediado pela linguagem e ancorado no vínculo humano

Fonte: A autora

Referências

GALVÃO, M.C.B.; RICARTE, I.L.M. Dos níveis de evidência à revisão sistemática mista, viva e contextualizada. Logeion: Filosofia da Informação, Rio de Janeiro, RJ, v. 11, n. 1, p. e-7323, 2024. Disponível em: https://revista.ibict.br/fiinf/article/view/7323. Acesso em: 20 abr. 2025.

INSTITUTE OF MEDICINE (US) Committee on Health Literacy. Health literacy: a prescription to end confusion. Washington (DC): National Academies Press (US); 2004.

OXFORD CENTRE OF EVIDENCE-BASED MEDICINE. Levels of Evidence. Available at: www.cebm.net/?o=10252009

SACKETT, D. L. et al. Evidence based medicine: what it is and what it isn’t.  BMJ, 312 (7023) 71-72, 1996.

SIMONDS, S.K. Health Education as Social Policy. Health Education Monographs, 2(1_suppl), 1-10, 1974.

SORENSEN, K. Defining health literacy: Exploring differences and commonalities. In: Okan, O.; Bauer, U.; Levin-Zamir, D.; Pinheiro, P,.; Sørensen, K. (editors). International Handbook of Health Literacy: Research, Practice and Policy across the Life-Span. Bristol: Bristol University Press; 2019.

Como citar este texto:

Galvão, M.C.B. et al. Literacia em saúde baseada no vínculo e inteligência artificial [Bond-Based Health Literacy and Artificial Intelligence]. São Paulo : USP, 2025. [DRAFT] DOI: http://dx.doi.org/10.13140/RG.2.2.26190.98885
O Global Digital Health: Our lab is here! é coordenado pela Profa. Dra. Maria Cristiane Barbosa Galvão na Faculdade de Medicina de Ribeirão Preto da Universidade de São Paulo. Contato: mgalvao@usp.br