Afasi-assistent

Blog

Bloggen beskriver udvikingen af Afasi-assistent i web-app version i beta-test perioden.

Du kan melde dig som beta-tester, hvis du vil afprøve eller bruge Afasi-assistent gratis i udviklingsperioden. Se under Kontakt.


28.11.20: Ændringer i hvordan administrator afprøver bruger-indstillinger

En administrator kan selv optræde som bruger og dermed indstille og afprøve opgavesæt og forløb (knappen "Start som bruger"), som siden kopieres over til brugere. Administrator kan også afprøve, hvordan tingene ser ud for brugerne ("Vælg bruger"). Hidtil har det været sådan, at gik man til "Bruger-start"-siden fra "Vælge bruger"-siden, så så man alle valgmuligheder, selv om brugeren måske ikke havde adgang til at redigere, og måske endda heller ikke til at vælge forløb eller opgavesæt - og fx kun havde tilladelse til at arbejde med et bestemt forløb (for at gøre tingene simpel for brugeren). Det betød også, at indstillingen "Gå automatisk videre", dvs. hvor man ikke behøver at trykke "Næste"-knappen i opgaver ikke havde effekt.

Jeg har nu i version 0.67 ændret app'en, så "Start som bruger" opretholder bruger-indstillingerne på bruger-start-siden, selv om det er administrator, som er logget ind. Administrator kan stadig komme til at redigere brugerens opgavesæt og forløb og til at kopiere opgavesæt og forløb over fra administrator-kontoen til brugeren, idet der på "Vælg bruger"-siden er knapper til at gå direkte til redigering af opgavesæt og forløb.

Nyt i version 0.67 er også, at den indlendende instruktion i Spændvidde-opgaver kan blive læst højt, og der er rettet en fejl i forløbs-styring.


24.11.20: Ændringer i grænsefladen på startsider for brugere og administratorer

Version 0.66: Brugerens startside viser nu en oversigt over resultater fra seneste træning. NB: det kræver en ny lagring af data, så det virker først efter, at brugeren har arbejdet med den nye version en gang.


På administrators startside er der nu lidt hjælpende tekst i forhold til, hvad de to knapper fører frem til.


23.11.20: Opgaver kan nu betjenes med tastatur - og andre forbedringer

Det er et ønske fra en beta-tester, at opgavesæt skal kunne betjenes ved hjælp af et tastatur. Det kan alle opgaver nu i version 0.65.

Et andet ønske fra en beta-tester er en kategorisering af opgavesæt i forhold til træningsmål, ligesom det findes for forløb. Dette er nu også gennemført. Jeg kategoriserer alle standard-opgavesæt og kopierer dem over til alle administratorer, men ikke til administratorernes brugere. Gamle opgavesæt uden kategoriseringer vises kun under "alle". Man kan åbne sine gamle opgavesæt, tildele dem kategorier og gemme dem under samme navn med de nye kategorier.

En tredje forbedring er, at man ved redigering af opgavesæt nu kan ændre indstillinger for de enkelte opgavetyper. Dette gør det hurtigere at lave forskellige opgavesæt med små variationer. Det kan fx være nyttigt, når man laver opgavesæt med stigende sværhedsgrad til et forløb.

Endelig har jeg forsøgsvis udskiftet kategorierne for opgavesæt og forløb, for at de skal være lettere at forstå for ikke-fagpersoner. Således er "Mobilisering" udskiftet med "Frembring" og "Spændvidde" med "Fasthold". Jeg har overvejet en "Begreber"-kategori, men den er for svær at adskille fra "Forstå", så disse opgaver er fortsat kategoriserede under "Forstå". Desværre kan jeg ikke umiddelbart se nogen fornuftige måder at udvide skemaet til at kunne kategorisere ikke-sproglig spændviddeopgaver, så de findes indtil videre under "Tale".

Da der er tale om ret gennemgribende ændringer, er det muligt, at der har sneget sig nye fejl ind trods grundig testning. Der er endvidere givetvis småting, som træninger til fin-tuning i den kommende tid.


19.11.20: Grafiske cirkler som illustration af opgavesæt-resultater

I version 0.63 vises nu grafiske cirkler med illustration af procent gennemførte opgaver og procent korrekte opgaver efter arbejde med opgavesæt og for gemte ogavesæt-resultater. Det skulle gøre det lettere at overskue resultaterne.

På nuværende tidspunkt er det begrænset, hvad der gemmes og vises af resultater fra forløb, men det er planlagt at gøre dette langt mere detaljeret.


18.11.20: Forbedret visning af gemte resultater fra opgavesæt

Et ønske i beta-testingen har været, at gemte resultater kunne sorteres efter dato.
Endvidere er det ønsket, at resultat-visningen skulle have så høj pædagogisk værdi som muligt.

Der er derfor nu sket nogle forbedringer ved visning af gemte opgavesæt-resultater:
1) Man kan nu vælge at få sorteret efter navn eller dato og tid.
2) Der vises procenter for, hvor mange opgaver der er løst i et opgavesæt, og for andel korrekte af de løste.
3) For resultater, som er gemt efter, at programmet begyndte at gemme løsningstider, vises også samlet løsningstid for opgavesættet.
4) Man kan vælge kun at se samlet resultatoversigt for hele opgavesættet eller oversigten suppleret med detaljerede resultater fra alle opgaver.


17.11.20: Vælg flere elementer ved kopiering og sletning

Et af ønskerne fra beta-testerne har været, at det skulle være muligt at vælge flere elementer i listerne ved sletning og kopiering. Dette er nu udviklet og klart. I version 0.60 blev det muligt at slette flere elementer (skabeloner, opgavesæt, forløb og resultater) på samme tid. I version 0.61 er det nu også muligt at vælge flere elementer (skabeloner, opgavesæt og forløb) på samme tid, når man vil kopiere fra standard-sæt, eller hvis en administrator vil kopiere fra sig selv til en bruger.

Dette har krævet omfattende ændringer og tilføjelser i programkoden, så trods grundig testning kan der være opstået fejl, jeg ikke endnu har opdaget, og som jeg i givet fald håber, at beta-testerne vil rapportere — og bære over med...

En mindre ændring i denne version er, at man på siden, hvor man vælger forløb, nu kan vælge enten at se alle forløb, eller forløb filtreret efter træningsmål (før kunne man kun se filtrerede forløb).

Endelig fandt og rettede jeg en fejl, som gjorde, at en administrator, som starter som en af sine brugere (fra "Vælg bruger"-siden), ville starte et forløb med administrators valgte forløb i stedet for brugerens.


10.11.20: Hvid skærm og gamle iPads

Hvis man får en helt hvid skærm i stedet for log-in skærmen på www.afasi-assistent.dk/app, er det fordi browseren er for gammel og ikke understøtter moderne web-standarder. På en iPad skal man have iOS version 12 eller nyere (nyeste version hedder iPadOS). Denne version kan køre på iPad Air, som Apple sendte på gaden i oktober 2013 samt alle nyere iPads, som har iOS/iPadOS version 12 eller nyere installeret (iOS 11 fungerer tilsyneladende ikke, men enheder som har iOS 11, kan og bør opdateres til iOS 12). Dvs. at man ikke kan anvende iPad i 1., 2., 3. og 4. generation, samt iPad Mini i 1. generation.

På en PC kan man ikke anvende Microsoft Internet Explorer, og det er bedst at anvende nyeste version af Chrome. Jeg har desværre ikke mulighed for at undersøge kompatibilitet med de mange forskellige Android tablets og versioner af Android. Afasi-assistent virker med Samsung Galaxy S3 med Android 9 Pie, så den bør virke med andre tablets med samme eller nyere Android versioner (10 og 11). Desværre opdaterer de fleste producenter af Android tablets ikke styresystemet i nær så lang tid på enhederne, som Apple gør på deres.


07.11.20: Fonem-lyde, iPad lyd og gå automatisk videre.

Der er følgende nyheder i version 0.58:

1) Opgavetypen "Benævnelse" kan nu have indtalt lyd som lyd-prompt og som ord til gentagelse. Dette muliggør, at lyd-prompt er fonem-lyd i stedet for bogstav-navn. Der er endvidere indtalt nye fonem-lyde (fonem_) efter lidt andre principper end de gamle fonem-lyde (fon_). De gamle lyde var opdelt ud fra bogstaver og med lidt mere medlyd på konsonanter. De nye lyde er opdelt ud fra lyd og uden medlyd på konsonanter. Der er lavet et nyt opgavesæt som eksempel på dette (Benævnelse 60 ord, fonem prompt).

2) Måden app'en afspiller lyd på er nu ændret, hvilket betyder, at problemet med, at første lyd i opgaver på iPad ikke blev afspillet automatisk, nu er løst. Dette har krævet ændringer mange steder i programkoden med risiko for fejl, som jeg ikke selv har opdaget i mine tests, så jeg afventer spændt, om alt fortsat fungerer hos beta-testerne.

3) Et ønske i beta-testen har været, at app'en automatisk skulle gå videre til næste opgave, når en opgave var løst korrekt. Dette er nu implementeret. Jeg har fundet det mest korrekt at knytte denne valgmulighed til brugerne (frem for til opgavesættene). Man skal derfor nu vælge dette på siden, hvor man redigerer sine brugeres indstillinger. Hvis administrator (logopæden) selv starter et opgavesæt eller et forløb som bruger, er det et valg, som skal træffes ad-hoc hver gang. Dette må være det mest oplagte, så administrator hurtigt kan afprøve hvordan det fungerer med og uden automatisk progression mellem opgaver. Hvis der er valgt automatisk progression, vises "Næste"-knappen ikke, og app'en går videre til næste opgave 2½ sekund efter en korrekt løsning.

4) Et andet ønske har været tydeliggørelse af billeder af krops-dele. Det er nu sket. For at få de nye billeder frem kan det være nødvendigt at tømme browserens billed-cache for denne app. I Chrome trykker man de tre lodrette prikker ( ) i øverst højre hjørne for at få en menu frem. I menuen vælger man "Flere værktøjer" og derefter "Udviklerværktøjer". Når disse vises, kan man højre-klikke genopfrisk-knappen ( ) oppe til højre og vælge "Tøm cache og genindlæs fuldstændig". Man skjuler udviklerværktøjer igen ved at trykke på det lille X øverst til højre i dets vindue.

4) Jeg har endvidere rettet fejl i opgavesættet "Forstå talte ord, kroppen".

Planlagte forbedringer i kommende versioner (foreslået af beta-testere):

1) Oplæsning af hjælpen til opgaver.
2) Oplæsning af start-instruktioner i spændvidde-opgaver.
3) Forbedret resultatvisning fra forløb.
4) Mulighed for alternative svarmuligheder i "Hvem og hvad" mapping sætnings-opgaver.
5) Mulighed for at vælge flere elementer i lister, fx ved kopiering af opgavesæt.
6) Mulighed for at få mål-ordet som feedback på korrekt valg i "Forståelse"-opgaver.


03.11.20: Ny opgavetype: Spændvidde

Audtiv opmærksomhedsspændvidde er en vigtig faktor ved afasi, da det er vigtigt at kunne opfatte og fastholde flere sproginformationer på samme tid for at kunne forstå det, man hører og læser.

En nært relateret kognitiv funktion, arbejdshukommelse, er vigtig for både sprog og andre kognitive funktioner. Man kan groft sagt sige, at arbejdshukommelsen er en betegnelse for, at hjernens styrende funktioner (eksekutiv-funktioner, som især præfrontale områder i hjernen er vigtige for) understøtter fastholdelse og brug af opmærksomhedsspændvidden. De eksekutive funktioner understøtter, at man fastholder flere elementer i tankerne, fx ved at man kan undgå distraktioner udefra og fra egne impulser. Endvidere gør de, at man kan manipulere med de elementer, man holder i tankerne (det er det man gør, når man tænker: manipulerer med elementer i de indre forestillinger).

Den nye opgavetype "Spændvidde" er især fokuseret på spændvidde-aspektet, men udfordrer også i nogen grad arbejdshukommelsen. I opgaven præsenteres man for to til seks mål-stimuli i rækkefølge. Det kan være talte ord, skrevne ord, billeder eller enhver kombination af dette på samme tid. Derfter skal man vælge blandt to til seks muligheder, som kan være billeder eller tekst eller begge dele. Opgaverne kan enten lade brugeren vælge målene i en hvilken som helst rækkefølge, eller de kan kræve, at man vælger i samme rækkefølge. Endelig kan man lave vanskelige opgaver for arbejdshukommelsen ved at kræve valg i omvendt rækkefølge. Sidstnævnte er egentlig mere en træning af en eksekutivfunktion end en sprogfunktion, men kan alligevel godt være relevant for nogle personer med afasi.

I opgaven-typens nuværende udformning gives kun skriftlig instruktion ved start. I en senere version vil der blive tilføjet en mulighed for at få instruktionen læst højt.

Beta-test feedback:
Som respons på feedback fra beta-test gemmes nu gennemførelsestider for opgavegrupper fra opgavesæt. Ved forløb vises dette også umiddelbart efter forløbet, men det er endnu ikke implementeret, at man kan se det senere. Endvidere omfatter tiderne også præsentations-tiden i de opgaver, hvor opgave-præsentationen er adskilt fra selve opgave-svaret, hvilket måske ikke er den bedste løsning.

Der er nu bredere input-felter til navne på skabeloner, opgavesæt og forløb, så man nemmere kan give lange, meningsfuldt beskrivende navne. Jeg arbejder videre med de øvrige forslag og rapporterede fejl.

Nogle beta-testere har store problemer med benævnelses-opgaven, hvor computeren skal forstå det ord, man siger. Hos mig klarer Chrome at forstå næsten alle ord, jeg siger i opgaverne. Måske afhænger det af, hvilken mikrofon man anvender, og hvor den er placeret. Man får det bedste resultat med en mikrofon, som er tæt på munden, og i stille omgivelser. Med en Macbook Pro får jeg et udmærket resultat, hvis jeg anvender Apple EarPods med mikrofon fra en iPhone, og sætter Mac'en til at bruge disse som indgang til lyd. Det er jo en ganske lille mikrofon, der er i sådan et sæt, så det afgørende er nok tætheden til munden. Anvendes en anden mikrofon, som fx en usb-mikrofon, så sørg for at den kommer tæt på munden. Man kan ikke regne med at kunne anvende computerens indbyggede mikrofon, da den er langt fra munden og også påvirkes af faktorer som fx støj fra selve computeren.


30.10.20: Feedback fra beta-test

Nu begynder der at komme feedback fra beta-testningen. De omhyggelige beta-testere har rapporteret mange vigtige fejl og uhensigtsmæssigheder og har mange gode forbedringsforslag. En stor tak herfra!

Aktuelt arbejder jeg på en ny opgavetype: Spændvidde - som jeg mener er et vigtigt træningsområde at have med. Derefter går jeg i gang med alle rettelserne og forbedringerne.

Jeg skriver, hvad der er rapporteret og foreslået på en side her: Udviklings-plan, så man kan følge med i, hvad der allerede er rapporteret og foreslået.


24.10.20: Et tip til iPad

På en iPad skal Afasi-assistent bruge så meget af skærmen som muligt. Man kan bruge en større del af skærmen, hvis man skjuler Safari-browserens faner. Man trykker øverst på skærmen og trækker op. Så skjules fanerne, sådan her:


Bruger man Chrome-browseren på en Android tablet, virker dette ikke. Der skal man i stedet trykke midt på skærmen (et sted, hvor der ikke er en tryk-knap) og trække op derfra.


23.10.20: Overfør bruger til en anden administrator

Det er nu i version 0.47 muligt at overføre en bruger til en anden administrator. Dette kan være nyttigt, hvis brugeren skifter logopæd, samt når en bruger udskrives fra hospital og skal fortsætte rehabiliteringen i kommunen (hvis du ser et tidligere version-nummer på log-in siden, så tryk på browserens genopfrisk-knap).

Brugerens konto gøres inaktiv ved overflytningen, så den nye administrator ikke pludseligt får talt ned i sine bruger-tilladelser. Så den nye administrator skal derfor aktivere bruger-kontoen, før brugeren kan logge på igen.

Tak til logopæderne på Hammel Neurocenter, som har foreslået denne overflytnings-funktion.


22.10.20: Billeder og tale

Den gamle Afasi-assistent brugte bit-map billeder, dvs. billeder som er sat sammen af pixels (små farvede prikker), som fx fotos er det. Problemet ved dette er, at de ikke bliver pæne, når de bliver skaleret op i størrelse. Dette er blevet et problem, fordi der i dag anvendes skærme med mange forskellige størrrelser, og fordi man kan vælge enhver størrelse på en web-app. Jeg har derfor valgt de tegnede billeder fra den gamle version og har vektoriseret dem, dvs. omdannnet dem til billeder, som så at sige bliver tegnet programmatisk. De skalerer dermed helt uden tab af kvalitet. Da der er tale om mange billeder, er det gjort automatisk i en batch-proces med et script. Det betyder også, at der kan være billeder, som endnu har fejl, som jeg efter hånden skal have rettet.

En anden forskel i den nye version er, at jeg indtil videre ikke tillader, at man anvender sine egne billeder. Dette skyldes, at billederne før lå lokalt på computeren, mens de nu ligger på min server. Tillod jeg upload, kunne jeg bliver ansvarlig for eventuelle copyright-brud. Det kunne løses af, at kun den, der uploadede billedet, havde adgang til det, men så ville der opstå et problem, når en logopæd lavede opgaver til en bruger. Indtil videre er løsningen, at jeg så hurtigt som muligt vil fremskaffe billeder, som nogen måtte mangle, hvis man mailer til mig om dette.

Tale-lyde i den gamle Afasi-assistent var primært lydfiler, jeg havde indtalt. Man kunne også anvende syntetisk tale med CD-ORD, som man så skulle købe en separat licens til et andet sted. Den nye Afasi-assistent har stadig de samme indtalte ordlyde, men nu kan man i mange opgaver også vælge at anvende syntetisk dannede lyde. Det har vist sig, at den syntetiske tale, som er indbygget i forskellige browsere, ikke har en tilfredsstillende kvalitet. Jeg har derfor i stedet udviklet en løsning, hvor jeg får dannet synetisk dannede ord-lyde (tekst-til-tale) hos en service hos Google Cloud, som har har den bedste kvalitet, jeg har kunnet finde (en tilsvarende løsning hos Microsoft Azure viste sig at have en lige så ringe kvalitet som den, der er indbygget i browsere). Disse ordlyd-filer gemmes på min server, så de er klar, når opgavene afvikles. Det betyder, at når man laver opgavesæt, skal man trykke på en knap, hvorefter lydene dannes. Glemmer man dette, mangler lyden i første omgang hos brugeren, men det opdager opgaven, som danner lyden, så den kommer, når der trykkes på en tale-knap igen. Det sker ikke fuldstændig umiddelbart, da det tager lidt tid at sende anmodningen til Google Cloud og før Google Cloud har dannet ordlyd-filen og sendt den retur. Kvaliteten er generelt god, men ikke altid perfekt. Det er især, når man arbejder med sætninger, at der er behov for at anvende syntetisk tale.

De ordlyde, jeg selv har indtalt, er lidt varierende i kvaliteten, så det er min plan efterhånden at genindtale dem med det bedre udstyr, jeg har i dag. Jeg kan i dag også tillade mig at lade dem fylde lidt mere, så de dermed også får bedre kvalitet. Endelig vil jeg udvide antallet af ord, som er indtalt.

Som noget nyt kan man nu anvende taleforståelse i benævnelses-opgaver, hvis man anvender Chrome browseren på en Mac, PC eller en Android-tablet. Dette fungerer fint for de fleste ord, men der er enkelte ord, som Chrome systematisk misforstår. Man skal derfor helst teste sine opgavesæt, før man lader brugeren arbejder med den. Beta-testen må vise, om denne funktion er god nok til at gå i produktion.


20.10.20: Brug den rigtige browser

Brug Chrome-browseren, hvis du arbejder med en PC, en Mac eller en Android tablet. Brug Safari på iPad.

Afasi-assistent virker ikke med Microsoft Internet Explorer (som Microsoft heller ikke opdaterer eller understøtter mere). Den virker med Firefox og den nyeste udgave af Microsoft Edge (som bare er en Chrome, som Microsoft har givet deres egen grænseflade). Det er bedst at bruge Chrome, for så er der mulighed for, at brugeren indtaler sit svar i benævnelsesopgaver - dette understøttes kun af Chrome-browseren.

Det hjælper dog ikke at anvende Chrome-browseren på iPad, da denne bruger "motoren" fra Safari, idet Apple ikke tillader andet. Ved benævnelsesopgaver på iPad vises knapper til selvvurdering af benævnelse i stedet for muligheden for at indtale svaret. Disse vises også, hvis man forsøger at anvende andre browsere end Chrome på PC og Mac.

App-adgang for beta-testere


16.10.20: Forventninger til beta-test

Beta-testen skal naturligvis hjælpe mig med at luse de fejl ud, jeg ikke selv har fundet. Det er derfor vigtigt, at beta-testere rapporterer alle fejl og uhensigtsmæssigheder. Optræder der en fejl, så prøv at åbne browserens konsol. I Chrome trykker man på de tre lodrette prikker i øverste højre hjørne. Der kommer en menu, hvor man vælger "Flere vækrtøjer >" og derefter "Udviklerværktøjer". Man kan da se eventuelle fejlmeddelelser, som app'en har logget. De kan være hjælpsomme for min fejlfinding. Beta-testere kan følge indrapporterede fejl og status for deres rettelse her på siden, under menu-punktet: Fejl-liste.

Det kan være nyttigt for beta-testere at kende min todo-liste. Ud over at afluse fejl, skal beta-testerne hjælpe med at vurdere, om selve den grundlæggende logik i systemet fungerer og er praktisk at arbejde med - dvs. opgavesæt, forløb mv. Desuden skal der udvikles flere opgavetyper samt færdige opgavesæt og forløb i systemet. Jeg håber, at beta-testere kommer med ønsker til dette.

Jeg har imidlertid også en todo-liste over ting, som definitivt skal gøres, men som ikke er vigtige at gøre lige nu:

Jeg ville egentlig også gerne arbejde med, at så meget som muligt kan betjenes uden mus, ligesom i Windows versionen, og at arbejdet går hurtigere ved, at fokus automatisk flyttes til næste relevante kontrol på skærmen. Dette er imidlertid komplekst i en browser, især når man også skal tage hensyn til rene berøringsskærme som fx på en iPad, og det kan også gå imod anbefalinger for handicap-tilgængelighed på hjemmesider.

App-adgang for beta-testere


16.10.20: Version 0.45 med ny opgavetype

Indtil nu har web-udgaven af Afasi-assistent haft fire opgavetyper, som især er beregnet til anomi-træning (ordfinding). Nu er der tilføjet en ny opgavetype, "Hvem og hvad", som er den første af de opgavetyper, som især er beregnet til at træne agrammatisme, dvs. vanskeligheder med at forstå og konstruere sætninger, ud fra mapping-teori.

Opgaverne kræver, at brugeren kan læse og skrive. Der trænes tre-ords sætninger med et subjekt, et verbum (udsagnsord) og et objekt. Der stilles prompt-spørgsmål (skriftligt), så der først spørges til verbet, som skal skrives ind, så til subjektet og endelig til objektet. Skriver brugeren forkert, vises det rigtige ord, som brugeren så skal skrive af. Der er således umiddelbar feedback, og brugeren kan altid komme videre.

Det vil være oplagt først at træne forståelse af sætningerne med opgavetypen "Forståelse", fx ved at vise den skrevne sætning og to billeder, hvoraf det ene svarer til sætningen. Man kan også lave opgavesæt, hvor forståelsen trænes lige før brugen selv skal skrive sætningen ind.

Her er starten på en opgave, hvor der spørges til verbet:




12.10.20: Endnu en introduktionsvideo på YouTube

Nu er den anden introduktionsvideo lagt på YouTube. Den viser, hvordan man opretter og redigerer skabeloner, opgavesæt og forløb, samt hvordan man kopierer forløbet over til en bruger. Man bør se den generelle introduktion, før man går videre til denne video.

YouTube intro video 2 link


09.10.20: Introduktionsvideo på YouTube

Jeg har nu lagt en første introduktionsvideo til beta-testere op på YouTube. Den viser log-in, oprettelse af bruger, samt kopiering og start af standard-forløb. Der vil senere komme flere videoer om, hvordan logopæden kan udvikle og redigere opgavesæt og forløb.

YoutTube intro video 1 link


07.10.20: Beta testere søges

Afasi-assistent har nu opgavetyper, som primært er egnet til træning af anomi. Her på siden kan man læse om de opgave-typer, som er færdige på nuværende tidspunkt. Systemet er komplekst, så det er svært for mig at teste for fejl i alle kombinationer, men jeg mener, at det er på tide at lade andre afprøve det. Kontakt mig, hvis du er logopæd eller neuropsykolog og har borgere med afasi, du vil prøve programmet med.

Man skal være indstillet på, at der optræder fejl og være villig til at rapportere dem til mig. Endvidere skal man være opmærksom på, at der kan ske større ændringer i systemet, hvis dette viser sig hensigtsmæssigt som følge af erfaringer under beta-testen.

Når Afasi-assistent frigives til almindelig brug, vil der være en abonnements-pris (som endnu ikke er fastsat), men man betaler naturligvis ikke noget under beta-testen, og deltagelse i beta-test forpligter ikke til at tegne abonnement senere. Jeg tør ikke sige, hvor lang beta-test perioden bliver. Det afhænger af, hvad der bliver fundet af fejl, og om der kommer mange vigtige forslag til forbedringer.

En beta-tester får brugernavn og password som administrator samt adgang til at arbejde med ti aktive brugere ad gangen. Det er muligt at hente standard opgavesæt og forløb, samt at udvikle tilpassede opgavesæt og forløb til de enkelte brugere.



30.08.20: Ny Afasi-assistent på vej

Afasi-assistent er et system til brug i den logopædiske undervisning af personer med afasi, dvs. sproglige vanskeligheder efter blodprop i hjernen og andre hjerneskader.

Afasi-assistent til Windows blev først afprøvet i 1995 og blev publiceret til almindelig brug nogle år senere. Det er siden opdateret, så det kan fungere med nyere udgaver af windows.

Der har i lang tid været behov for en ny web-baseret udgave, hvor logopæden kan give hjemmeopgaver over nettet, og hvor personen med afasi kan anvende andre systemer end Windows. Endvidere gør en web-baseret version det muligt løbende at udvikle og forbedre systemet.

Jeg er nu gået i gang med denne udvikling og vil i nærmeste fremtid lade de første dele af systemet beta-teste af interesserede logopæder. Da systemet er web-baseret, er det muligt at starte med at færdiggøre dele af det og så løbende tilføje nye elementer. I første omgang fokuserer jeg på anomi-træning. Det er imidlertid vigtigt, at kernen i systemet er velfungerende, før den første del af systemet frigøres til almindelig brug.

Udviklingen af systemet er ikke dækket af fonde eller offentlige tilskud, og min løn er ikke dækket af en universitets-ansættelse eller lignende. Jeg kommer derfor til at lade det være abonnements-betalt, så jeg kan få lidt arbejdsløn, dække udgiften til servere og online-database samt mit udvikingsudstyr (computer og software). Det bliver vanskelig at fastsætte prisen, da afasi-ramte i Danmark heldigvis er et meget lille marked, og antallet af abonnenter er vanskelig at forudsige.

Ideen i Afasi-assistent til web er ligesom i Windows-udgaven, at det skal kunne tilpasses brugerne, da der findes så mange typer af afasi og kombinationer af vanskeligheder og bevarede ressourcer. Det kan også være forskelligt, hvilke ord, man har behov for at træne. Jeg forsøger imidlertid at gøre det lettere at individualisere indholdet, så dette ikke stjæler for megen af logopædens tid. Til forskel fra Windows-versionen kan man nu blande opgavetyper i træningsforløbene, hvilket især er vigtigt i anomi-træning. Dvs. at samme ord fx samtidig trænes semantisk, straks efterfulgt af en lydskelnen-opgave for at afslutte med selve benævnelsesopgaven.

Som noget nyt vil jeg forsøge at anvende taleforståelse i systemet. Dette kræver, at man bruger en Chrome-browser på Windows, Mac eller en Android-tablet. Det virker desværre ikke med iPad (hvor man er henvist til at lade brugeren selv vurdere, om han/hun kan benævne et ord i en opgave). Computeren kan ikke på nogen måde vurdere kvaliteten af talen som en logopæd kan, men beta-testen må vise, om dette alligevel er en nyttig funktion, som kan øge omfanget af det, brugere kan træne med helt uassisteret.

App-adgang for beta-testere

Kontakt: Neuropsykolog Palle M. Pedersen, mail@cognisoft.dk, mobil 40512049.