Vill du veta hur du hittar, fattar och vinner nya affärer?

Vi erbjuder just nu en kostnadsfri digital utbildning. Utbildningen består av 3 korta avsnitt på fem minuter vardera och ämnena vi går igenom är:

✅ Hur ser potentialen ut på den offentliga marknaden?

✅ Hur gör du för att hitta affärer anpassade för just dig?

✅ Och det viktigaste, hur gör du för att vinna affärerna?

Varför ritar AI Trump med sex fingrar?

Att AI seglat upp som ett av de mest framstående ämnena under det gånga året är inget nytt men hur fungerar det och varför ritar AI Donald Trump med sex fingrar? Svaret belyser en avgörande skillnad mellan nuvarande AI och mänsklig intelligens: semantisk minne.

Att AI seglat upp som ett av de mest framstående ämnena under det gånga året är inget nytt men hur fungerar det och varför ritar AI Donald Trump med sex fingrar? Svaret belyser en avgörande skillnad mellan nuvarande AI och mänsklig intelligens: semantisk minne.

Vad är semantiskt minne? Semantiskt minne avser vår förmåga att lagra och hämta allmän kunskap om världen, såsom fakta, begrepp och betydelsen av ord. Det är vad som gör att vi förstår att hundar har fyra ben, himlen är blå och att människor vanligtvis har fem fingrar på varje hand.

Vi har olika minnessystem, vissa till och med dolda för oss. Till exempel har vi implicit motoriskt minne, vilket hjälper oss att cykla. Att cykla är enkelt när man lärt sig, men att förklara hur vi gör det är utmanande. Samma sak gäller för att gå. (Stå upp och försök medvetet och med avsikt röra dina armar och ben för att gå!) Vi har också episodiskt minne, som utvecklas runt tre års ålder och låter oss minnas personliga upplevelser. Därför minns vi inte att vi lärde oss gå, eftersom det skedde innan vårt episodiska minne utvecklades. Men vi minns vanligtvis när vi lärde oss cykla.

När barn börjar rita, ritar de ofta huvud-fotingar. När de växer hjälper deras semantiska minne dem att lägga till detaljer som ben, en mage och självklart fem fingrar.

LLM saknar semantiskt minne. AI baserad på stora språkmodeller (LLM), som ChatGPT, har inget semantiskt minne. De genererar text baserat på mönster i de data de tränats på, utan att förstå de underliggande begreppen. Det är därför de kan rita en person med sex fingrar, även om det inte finns något faktiskt foto av Trump med sex fingrar.

Detta händer eftersom:

• LLM förlitar sig på statistiska associationer snarare än verklig förståelse.
• De saknar förmåga att verifiera sina resultat mot verklig kunskap.
• De har inte ett konsekvent "minne" av fakta som människor har.

Varför detta är viktigt. Att förstå denna distinktion är avgörande när vi integrerar AI djupare i våra dagliga liv och arbetsflöden. Medan LLM kan assistera med många uppgifter, innebär deras avsaknad av semantiskt minne att de också kan göra oväntade och obegripliga fel.

På PublicInsight, där vi bygger AI-system för att hjälpa företag att vinna offentliga upphandlingar, är det en stor utmaning att förse LLM med en typ av semantiskt minne om upphandlingar. Vår banbrytande app, Go!, som automatiskt sammanfattar långa anbud och skriver förslag till anbud, bygger på denna förbättring.

Vi ser att många forskare arbetar på att lägga till semantiskt minne till LLM. Kanske kommer det i GPT-5, som OpenAI just nu tränar? Eller kommer en ny aktör att ta över tronen från OpenAI med detta?

- Lars Albinsson, C PublicInsights Labs