Hallucinations in large language models can lead to factually incorrect responses in medical contexts.
Samenvatting
Researchers found that LLaMA-70B-Instruct, a large language model, hallucinated in 19.7% of answers when provided with medical textbook passages. Lower hallucination rates were associated with higher usefulness scores.
Waarom dit ertoe doet
Deze technologische ontwikkeling kan de manier waarop AI in de zorg wordt ingezet fundamenteel veranderen.
Context (AI-duiding)
Klik op “Toon context” om AI-duiding op te halen.
Nieuwsbrief
Wekelijks dit soort signalen in je inbox
De nieuwsbrief bundelt nieuwe signalen, relevante verschuivingen en korte duiding zodat je minder afhankelijk bent van incidentele sitebezoeken.
Scores
De mate waarin dit signaal de Nederlandse gezondheidszorg kan beïnvloeden (1 = minimaal, 5 = transformatief).
Hoe snel actie of aandacht nodig is (1 = kan wachten, 5 = onmiddellijke aandacht vereist).
De mate van onzekerheid over de uitkomst of timing (1 = zeer voorspelbaar, 5 = zeer onzeker).
Tags
Bronnen
- Hallucinations in large language models can lead to factually incorrect responses in medical contexts.arXiv - Artificial Intelligence (cs.AI) —
Pipeline versie: 0.2.0 | Gegenereerd door: pipeline