Vad kostar fullständig interoperablitet?

För en tid sedan dristade jag mig till att uttala en högst ovetenskaplig mellan-tummen-och-pekfinget-uppstkattning av omfattning och täckningsgrad i den nationella tjänsteplattformen. Vi sitter idag på ca 100 kontrakt fördelade på 25 domäner och min gissning är att det lagts ungefär 25 000 timmar på att speca dessa. Har nån en bättre siffra så tar jag tacksamt emot.

Ok, vad är då täckningsgraden av kliniska datapunkter i dessa? Omöjligt att säga? Jag drog till med 5%. Det kanske låter lågt, men det är inte samma sak som att säga att endast 5% av alla informationsutväxlingar har stöd i den nationella infrastrukturen. Ett antal meddelanden är storsäljare och sedan droppar förmodligen frekvensen av utbytesbehov av enligt en snygg spridningskurva med en lång svans av information som i praktiken bara behöver förankras mot en informationsmodell när man byter ett system mot ett annat eller liknande sällan förekommande aktiviteter. I arbetet med FHIR har man talat om en klassisk 80/20 regel.

Nå väl, det intressanta är att om man kombinerar dessa två siffror så landar man på en siffra för en fullständigt utbyggd semantisk interoperabilitet i sjukvården på 500 000 timmar. Eller så här, det riktigt intressanta är att ett helt annat estimat av den totala informatikinsatsen för fullständig interoperabilitet (baserad på erfarenheter från OpenEHR  gjord av min nuvarande favoritbloggare) landar på precis samma siffra, 500 000 timmar.

Wolands Cat-posten utgår ifrån ett antagande att det finns ungefär 50 000 informationselement att förhålla sig till och att en OpenEHR-arketyp kräver ca 10 timmar per element. Min personliga reflektion är att 50 000 kanske är en lite väl stor siffra, men å andra sidan är 10 timmar per element i underkant. Ett journalsystem har mig veterligen sällan fler än 5 000 dataelement, så det skulle krävas stor variation mellan systemen och en huvuddel av strukturerad information utanför journalen för att nå upp till 50 000, samtidigt vet jag att ca 300 dataelement i ett stort projekt som epSOS krävde i runda slängar 10 000 timmar, dvs ca 30 timmar per element.

Värt att notera är att för dessa 500 000 timmar, eller ca 250 personår, får man bara enighet i representationen av information. Att sedan å ena sidan omsätta detta i riktlinjer, enhetliga processer och gemensamt språkbruk i verksamheten och å andra sidan utveckla intern datarepresentation och webtjänster i vårdens IT-stöd är ej inräknat.

Vad ska man dra för slutsatser av det här?

  • Vi kan inte göra det här själva i Sverige, no way, never!
  • En förändringsgrad på 5% i modellerna är större än Sveriges nuvarande totala informatikleveranskapacitet.
  • Att stå på jättars axlar är vägen framåt, men hur sjutton når vi samsyn och skapar produktiva sammarbetsformer?
Annonser

6 reaktioner på ”Vad kostar fullständig interoperablitet?

  1. Hej Oscar!

    Att införa tjänstekontrakt ger en mycket begränsad interoperabilitet! Bättre än ingen men mycket långt från den fullständiga interoperablilitet du efterlyser i rubriken.

    1. Jag instämmer. Det är därför det är omöjligt att ordentligt skatta den totala insatsen. Vad händer t ex när man kommer på smartare sätt att representera information. Det här är också siffror som bygger på ett linjärt förhållande mellan insats och resultat.

  2. Lysande att fler på allvar börjar belysa skalbarhetsproblematiken och vikten av vettigt internationellt samarbete kring detaljerade tillämpade modeller (t.ex. arketyper eller motsvarande). Eftersom jag nördade in på ”semantic sustainability” i min avhandling så blir jag lycklig av att fler i Sverige börjar prata om detta problem och möjliga lösningsansatser.

    Daniel Karlsson (LiU) och jag hade förmånen att häromdagen träffa och diskutera bland annat detta med några stycken från Inera, NPDi/SKL, SoS och två leverantörer. Vi nämnde även ditt ovanstående blogginlägg och experimenterade med siffror i ett kalkylark för att skatta arbetsinsatser för lite olika saker, du hittar en version av kalkylarket under namnet ”detaljerad-modellering-tar-tid” i mappen som nås via http://bit.ly/es-pres Det viktigaste är inte exakta siffrorna, men att folk börjar se skalan.

    Vi ses på Vitalis, såg att du också skulle tala där om ”Från medelandeutväxling till semantisk interoperabilitet” (23 april 09:00 – 09:30). Missa inte föredragen som följer strax efter ditt:
    – ”A common, structured admission note for Norwegian hospitals”, Tomas Alme, Torsdag 23 april 2015, 09:30 – 10:00
    – ”Nasjonal forvaltning av arketyper i Norge” med föreläsaren Silje Ljosland Bakke Torsdag 23 april 2015, 10:30 – 11:00.

    Jag pratar senare på dagen om ”Frihet och/eller struktur i journaler? Bekväm husarrest eller krävande frihet?” (23 april 14:30-15:00).

    Jag tror att vi kan lära oss en del från de norska erfarenheterna och även samarbeta praktiskt med dem (och övriga världen) kring framtagande/underhåll av detaljerade tillämpade informationsmodeller.

    1. Tack för återkopplingen. Både att den här bloggposten jag ruvat på i en månad kom i rätt tid för att göra lite nytta, och att få höra om det också. Ska bli kul att ses på Vitalis! Den 23:e blir en heldag.

  3. Stan Huff om skalbarhet i Intermountains (faktiskt framgångsrika) beslutsstöd, från HIMSS2015-presentationen http://files.himss.org/2015Conference/handouts/PHY7.pdf

    We can’t keep up!
    • We have ~150 decision support rules or modules
    • We have picked the low hanging fruit
    • There is a need to have 5,000 decision support rules or modules
    • There is no path from 150 to get to 5,000 unless we fundamentally change the ecosystem

Kommentera

Fyll i dina uppgifter nedan eller klicka på en ikon för att logga in:

WordPress.com Logo

Du kommenterar med ditt WordPress.com-konto. Logga ut /  Ändra )

Google+-foto

Du kommenterar med ditt Google+-konto. Logga ut /  Ändra )

Twitter-bild

Du kommenterar med ditt Twitter-konto. Logga ut /  Ändra )

Facebook-foto

Du kommenterar med ditt Facebook-konto. Logga ut /  Ändra )

Ansluter till %s