geneeskunde.aiRadar
Binnen 6–18 maandenTechnologie & AIvoorbereidenConfidence: 40%

Hallucinations in large language models can lead to factually incorrect responses in medical contexts.

Eerste signalering: Laatst bijgewerkt:

Samenvatting

Researchers found that LLaMA-70B-Instruct, a large language model, hallucinated in 19.7% of answers when provided with medical textbook passages. Lower hallucination rates were associated with higher usefulness scores.

Waarom dit ertoe doet

Deze technologische ontwikkeling kan de manier waarop AI in de zorg wordt ingezet fundamenteel veranderen.

Context (AI-duiding)

Klik op “Toon context” om AI-duiding op te halen.

Nieuwsbrief

Wekelijks dit soort signalen in je inbox

De nieuwsbrief bundelt nieuwe signalen, relevante verschuivingen en korte duiding zodat je minder afhankelijk bent van incidentele sitebezoeken.

Scores

4
Impact

De mate waarin dit signaal de Nederlandse gezondheidszorg kan beïnvloeden (1 = minimaal, 5 = transformatief).

3
Urgentie

Hoe snel actie of aandacht nodig is (1 = kan wachten, 5 = onmiddellijke aandacht vereist).

4
Onzekerheid

De mate van onzekerheid over de uitkomst of timing (1 = zeer voorspelbaar, 5 = zeer onzeker).

Tags

AI in healthcarelanguage modelsmedical accuracy

Bronnen

Pipeline versie: 0.2.0 | Gegenereerd door: pipeline

← Terug naar signalen