Early December I blogged about wanting to build a stronger habit of bookmarking and annotating in Hypothes.is (which sends everything on to my notes in Obsidian). Over the past month that has worked out nicely, with steady additions to my bookmarks and annotations, unlike before.

In that early December posting I mentioned wanting to fix two things:

Today I made a first version of tool to allow me to share to Hypothes.is from mobile. I reused the same code I made for posting within my feedreader, but with added precautions and checks because it needs to live on the open web to function.

The reason I wanted to build my own tool is that one way of doing this, through a proxy server run by Hypothes.is, will be switched off by February. The suggested replacement for mobile somehow doesn’t work in my mobile browser. I don’t know why, and felt it’s better anyway to try and build my own thing.

In this first iteration, it’s a regular webform served from one of my domains, that I bookmarked. While browsing online, I can copy the URL and e.g. the title of a page to the clipboard, and then open and populate the webform by selecting the bookmark, adding a comment and some tags. Hitting submit, sends it all to Hypothes.is. This works best if you have a clipboard on your mobile that can have multiple entries, so you have the material for one or more bookmarks and annotations on it.

So my second fix from last month I’ve now created. Probably I will iterate a bit on this, to see if I can reduce the number of steps involved.

Yesterday Martijn Aslander demonstrated the personal information tools he recently created. I came away inspired. Perhaps not by the tools as such, and more because of the pathways of thinking it opened. And because everything was so blazingly fast. All vibe-coded, as he has no coding skills himself.
I can see how the way his brain works is aided by the structure and availability of information his personal toolbox provides him. However, I myself would be more interested in shaping a personal tool like this towards being able to facilitate me in my processes and habits, as well as let me work towards actual outputs.

The Digitale Fitheid (Dutch language platform) community (Digital Fitness, the English language platform) has a monthly face-to-face meet-up in Utrecht, and yesterday was this year’s last. In the morning E had attended a session by Frank Meeuwsen on how to use Claude Code to quickly build something from scratch. In the evening I joined Martijn’s session on what he is calling his ‘Theta OS‘.

Some observations.

  • Martijn’s Theta is mostly a dashboard on local information. It shows him lots of different pieces of information at a glance. Each of these things, hotel bookings, books, payments, tasks, quantified self measurements and more, can live and be accessed in their own little apps and silos, but he uses the dashboard to combine them in context. At the outset he said that having his own established ontology (in the information sense, not the philosophical) was a prerequisite. That sounds very true, as the purpose here is having an extremely personal tool. The value is in combining various information sources on purely personal criteria on the fly.
  • His tool stack is sqlite (a lightweight database, installed by default on my Mac), with node.js (to run javascript), and regular html and css for the front-end using the local webserver on his laptop. I didn’t have node.js on my Mac, installed it now to be able to try some things.
  • He is not a coder, so everything is vibe coded with Claude Code. And while maintaining that makes him able to quickly create things, he spent some 500 hours in Claude Code in the past months. Makes me wonder what he could have done in those 500 hours if he hadn’t used it. I do recognise that given his nature, a organised path of exploration and learning would not have been feasible, though might well have resulted in a similar proof of concept after 500 hours.
  • Because of this he wasn’t really able to conceptually discuss the results other than what it does on the front-end and what it means to him. When asked about the architecture of the tool he therefore asked Claude Code to whip up a description.
  • In working with Claude Code he did not feed it his personal information, but abstracted structures. E.g. to incorporate a CSV with personal information he would provide the structure and a bit of dummy data to get a parser or importer and change the database structures. Then use the importer for the actual data outside of Claude.
  • To Martijn Theta is for surfacing and combining little pieces of data and information. He also uses markdown notes a lot (with Obsidian as viewer), but Theta keeps all the small pieces out of his notes. Only when he combines things into something more informational he brings it into his markdown notes. I find this distinction makes sense, as I am usually adverse to ‘make Obsidian do everything for me’ type of efforts. I use several tools that work on my Obsidian notes but do not attempt to be part of Obsidian. Largely absent yesterday was the other way around in the demo / discussion: getting small bits out of Obsidian into his dashboard.
  • The entire thing as it is now is a tool that clearly and visibly had an evolutionary path, as opposed to a planned-for structure and design. This appeals to me a lot. It is the same with my own personal tools and system of notes. Others sometimes remark on how it would impossible for them to create something like it for themselves. Thing is, neither could I. The current state evolved over time, and does not lend itself to reconstruction. That this sense of evolution stands out to me after a few months of Martijn spending that 500 hours in total on his Theta OS too, to me is a strong argument in favor of his approach.
  • This is reinforced by how he clearly builds intensively on his own structures and habits. As I often remark too, I am predictable to myself, and it means any software tool you build for yourself can make choices based on that predictability. If I want to save something I know which attributes I care about, and in which form I want to have them available. If I make a shopping list I know the order of the supermarket shelves of the store I’ll visit. If I’m near a Dutch railway station in the evening, it is most likely I intend to take a train home, that type of thing. The same is true for my information strategies. I know where I store my book notes and how, as I’ve been doing it for ages etc.
  • Building on that predictability he makes functionalities in Theta highly contextual. If he bookmarks a LinkedIn profile, it means he wants a person note with a few distinct fields from the profile (e.g. current role and location), and bookmarking then means the creation of such a person note in the same way as all his existing person notes already are. If it’s a recipe it pulls out the recipe, converts cooking terms and measures to Dutch terms and measures, and makes the ingredients available to dump into a shopping list.
  • Similarly everywhere he has a ‘copy to clipboard’-button in his Theta, it has a contextually determined template, so he can paste it into something else in the way he needs it at the destination. I use those templates in different places already, the way I send a bookmark to my blog, my annotation tool, and how an annotation is imported into my Obsidian notes, how I save a webpage in markdown to my notes, are all determined by a template that takes the same basic information but styles and orders it differently based on purpose and destination.
  • That contextualisation sometimes needs persistent data from outside. He incorporates such data into his local database. E.g. all the place names for the Netherlands, so he can recognise a place name in his own material, or search with any of them across his material. Or the list of translated cooking terms mentioned above.
  • He created his own e-mail client interface (using IMAP to access his mail accounts). This allows him to create processing geared to his own routines. E.g. a button to process an e-mail as a hotel reservation, or as parcel delivery announcement, or to pull location or event data from etc. That information then surfaces in his dashboard where it is made useful. It resulted in a rather long row of specific processing contexts but I can definitely see the power of it. Like I tinker with my ‘ideal feedreader’, doing the same for an ‘ideal e-mail interface’ where the point is to not let things reside in e-mail but make it findable and useful outside of it makes a lot of sense. And again, because you are predictable to yourself it is obvious what ‘outside’ means in each instance.
  • He created ‘companion apps’ (using Mac’s Xcode to make them for iOS, I wonder if something similar for Android exists) for his phone, allowing him to access and work with information on the go.

On the train home, I started exploring both sqlite and node.js in more detail, to figure out if and how I may want to add it to my local personal tool set.
Can I use this to reignite my work on my personal toolsuite? That work is more aimed at facilitating myself in my processes and helping me achieve outputs.
Despite going to bed late, I woke unexpectedly early, given the holidays and weekend, and felt the need to explore more. So the session definitely kicked something in gear. It does need my personal approach of course, and I have plenty of relevant notes on this from the past years to use for it. Years ago, back in 2017, I already gave the effort a name too, Aazai.
I set up sqlite and node.js this morning to have a sandbox to try some building blocks out.


I will be in Warsaw from Tuesday January 13th late afternoon until Saturday January 17th early morning.

I will be in Warsaw for a CEN-CENELEC JTC25 plenary meeting, with some time around and during the program for conversations. Let me know if you want to meet-up.

Het is uiterst urgent digitalisering bestuurlijk en politiek te maken, omdat de soevereiniteit van de gemeente op het spel staat. Om daarin handelingsruimte te vinden is het nodig goed onderscheid te maken tussen verschillende aspecten en perspectieven, die wel overlap vertonen met digitale soevereiniteit maar toch iets anders zijn. Teneinde die gevonden handelingsruimte te benutten is technische kennis nodig én een andere kijk op inkoop. Op twee manieren dient een gemeente daarbij over de eigen schaduw te springen. Ten eerste door minder krampachtig vast te houden aan de kamerindeling in het Huis van Thorbecke, zodat je voorkomt dat je ondertussen volledig opgehokt raakt in de cloud. Samenwerking binnen en over bestuurslagen heen is daarbij cruciaal om je digitale soevereiniteit te bewaren.
Ten tweede is het nodig enkele kleine maar zichtbare eerste daden te stellen. Daarmee laat je zien dat de status quo doorbroken kan worden, en dat mobiliseert vervolgens mensen in de eigen organisatie en daarbuiten.
Uiteindelijk is het voor een overheidsinstelling al heel lang niet geloofwaardig uit te leggen waarom je voor bepaalde non-Europese technologie kiest. Tijd voor actie.

De Stadsbron in Amersfoort organiseert in de aanloop naar de gemeenteraadsverkiezingen komend voorjaar een aantal gesprekken over diverse thema’s. Gisteravond was de eerste, rond het thema digitalisering, en vooral wat een gemeente t.a.v. digitale autonomie en soevereiniteit kan doen. Ik was gevraagd om vanuit ons werk bij The Green Land over digitale soevereiniteit te vertellen. In de zaal een diverse groep geïnteresseerden, met en zonder IT invalshoek, en een handvol leden van de Amersfoortse gemeenteraad.

Ik woon in Amersfoort maar weet niets van de informatiehuishouding van de Gemeente Amersfoort, dus mijn bijdrage ging vooral over patronen en invalshoeken die ik elders tegenkom.
Het eerste in het oog springende patroon is dat als het gaat over ‘digitale autonomie’ en ‘digitale soevereiniteit’, dat vaak als synoniem wordt gezien, en wordt samengevoegd met privacy en informatieveiligheid. Deels omdat de dreigingen voor alle vier kunnen overlappen.
Bovendien wordt hierbij vaak door elkaar heen gesproken over het individuele perspectief, en over organisaties.
Het openbaar bestuur heeft bovendien nog weer een andere positie en verantwoordelijkheden (jegens burgers, democratie en rechtsstaat) die meespelen.
Het is dus goed om te onderkennen wanneer je het over welk onderdeel hebt, en dat we het hier over weliswaar overlappende maar verschillende dingen hebben.

Bij digitale autonomie staat voor mij centraal dat je zelf controle hebt over de gereedschappen die je gebruikt. Jij bepaalt waar en hoe je ze inzet, en je kunt de werking instellen. De leverancier dwingt dan geen instellingen af, en neemt geen invloed op jouw gebruik van het gereedschap. Open source software bijvoorbeeld stelt je in staat de werking van je gereedschap precies na te gaan. De algoritmische bepaalde tijdslijnen in social media platforms als Facebook en X ontnemen je de mogelijkheid te bepalen wat je daar ziet en van wie je dingen ziet. Er zijn grote verschillen in hoe LLMs, de modellen achter generatieve AI toepassingen, wel of niet transparant maken op welke gegevens ze zijn getraind. De mate waarin een ander bepaalt of en hoe jij je digitaal gereedschap gebruikt is de mate van uitholling van jouw autonomie. Soms is dat heel navrant: de software in Poolse treinen detecteerde wanneer onderhoud plaatsvond in andere werkplaatsen dan die van de leverancier, en deed dan alsof de trein niet meer werkte. John Deere tractoren zijn op afstand uit te schakelen door de fabrikant. Handig bij roof, maar het werd ook gebruikt om boeren te dwingen niet zelf aan hun machine te sleutelen. JD betoogde in een rechtbank zelfs dat een boer een trekker helemaal niet in bezit had, maar alleen een licentie op gebruik ervan.

Digitale soevereiniteit gaat een stap verder dan digitale autonomie. Daar is de vraag of een leverancier (of een andere actor achter die leverancier) invloed neemt op wat je als organisatie doet, via hun controle over jouw gereedschap. Doe je als organisatie iets dat iemand anders onwelgevallig is, dan stopt de werking van je gereedschap. De invloed reikt dan dus verder dan alleen het gereedschap, en richt zich op de taken en belangen van je organisatie als geheel. Niet eens met de openbare aanklager van het internationaal gerechtshof? Dan werkt de e-mail niet meer. Voor het openbaar bestuur is digitale soevereiniteit cruciaal, om te zorgen dat het openbaar bestuur zelf, en alleen zelf, democratisch toetsbare besluiten kan nemen over hun werkingsgebied. Het is heel platgeslagen de vraag wie aan jouw ‘uitknop’ kan zitten.

En die vraag moet je elke keer opnieuw stellen. De Amerikaanse overheid claimt bijvoorbeeld sinds de Patriot Act (2001) en sinds de Cloud Act (2018) zeggenschap over alle Amerikaanse entiteiten, ongeacht waar die zich bevinden, en inclusief onderliggende entiteiten. Heeft een leverancier uiteindelijk een Amerikaanse eigenaar dan kan de Amerikaanse overheid die opdragen toegang te verschaffen of diensten te stoppen. Als na een overname een Amerikaanse speler eigenaar is geworden van een tot dat moment soevereine digitale oplossing, dan is die soevereiniteit daarmee verdwenen. Een recent voorbeeld: Solvinity biedt, naast al niet-soevereine cloud oplossingen via o.a. Microsoft Azure, ook een geheel eigen product aan waarop bijvoorbeeld Digid draait. Dat valt na overname onder Amerikaanse overheidszeggenschap. Het maakt daarbij niet uit of data en servers wel of niet in Nederland of Europa staan. Veel ‘soevereine cloud’ aanbiedingen zijn dat dan ook niet, domweg omdat er Amerikaanse leveranciers bij zijn betrokken, die uiteindelijk zullen moeten buigen voor eisen van de Amerikaanse overheid. Ongeacht of dat nu wel of niet in de praktijk voorkomt, de aanwezigheid van de mogelijkheid ondergraaft de soevereiniteit van het openbaar bestuur in Nederland (en de hele EU). Alle leveranciergaranties ten spijt, het fundament eronder is dan rot.

Hoe verklein je de afhankelijkheden, hoe werk je aan digitale autonomie en digitale soevereiniteit? Door na te gaan waar precies de problemen en afhankelijkheden zitten die effect hebben op privacy, digitale veiligheid, autonomie en soevereiniteit. Je pelt het af in lagen. Van kritieke grondstoffen die nodig zijn om bijvoorbeeld chips en computers te maken, via de hardware, fysieke infrastructuur, zachte infrastructuur als cloud en open source componenten, naar data, en toepassingen en diensten. Op elk van die lagen weeg je de risico’s en kun je het hebben over beschermende en mitigerende maatregelen. Eurostack en DOSA, dat ook door de Nederlandse overheid wordt gehanteerd, geven zo’n opdeling in lagen.


Eurostack, Bertelsmann Stiftung (PDF), licentie CC-BY NC ND


DOSA stapelmodel

Dat maakt het mogelijk om strategisch en bestuurlijk naar digitalisering te kijken, in plaats van het als technologie keuze bij de IT-afdeling te laten. En je ziet ook waarom hyperscalers een probleem zijn: ze bieden een stapeling van hun eigen hardware, cloud infrastructuur en data centers, plus databeheer, software en AI tools aan als een geheel.
Door te analyseren waar je als organisatie zelf van bent, en niet, en wat je zelf doet en niet, plus hoe dat is verschoven de afgelopen jaren, open je een directiegesprek over hoe dat zich verhoudt tot de taken en doelen van de organisatie zelf. Dat kan tot keuzes leiden weer meer zelf te doen, het aan anderen te laten, of om de samenwerking te zoeken met gelijksoortige organisaties. Onderstaande plaatjes komen uit een casus van een grote uitvoeringsorganisatie. Van belang is vooral het constateren van hoe er wordt uitbesteed waar je zelf als organisatie ook van bent. Met dergelijke uitbesteding verdwijnt ook belangrijke kennis uit je organisatie. In de uitkomst is het aanwijzen van plekken voor samenwerking belangrijk: in plaats van uitbesteden wordt met gelijksoortige organisaties samengewerkt om gezamenlijk met de juiste kennis en inkoopkennis een oplossing te vinden.


DOSA analyse, wat is er veranderd?


DOSA analyse, andere keuzes maken

Cruciaal daarin is het los van elkaar zien van de verschillende elementen die nu bijvoorbeeld bij een hyperscaler zijn ondergebracht. Welke alternatieven zijn er voor die losse elementen, of groepjes ervan? De ene geïntegreerde verticale kolom uit de stack vervangen door een andere is alleen het wisselen van wie je inmenging in je autonomie en soevereiniteit toestaat.
Dit proces vergt kennis van techniek, organisatie, en inkoop.

Aan de inkoopkant is het zaak factoren in de vereisten en in de weging op te nemen die de gewenste autonomie, soevereiniteit en ethische aspecten borgen. Nu is het veelal zo dat een IT inkoper niet in staat is dergelijke dingen te vergelijken met een door zo iemand als veel tastbaarder ervaren categorie als ‘total cost of ownership’. Er is geen prijs te bepalen voor je soevereiniteit als openbaar bestuur, die te verdisconteren is in de ‘TCO’. Inkopers hebben dus nieuwe taal nodig om zich rekenschap te kunnen geven van factoren die het functioneren van het openbaar bestuur kunnen aantasten.
In naam van efficiëntie worden nu IT-keuzes gemaakt die onnodige kwetsbaarheden introduceren. Doorgedreven efficientie maakt je organisatie en processen heel broos.
Dat bleek de afgelopen weken meerdere keren, weliswaar door storingen in plaats van een actor die bewust aan je uitknop zit maar met hetzelfde effect. In de VS viel een stukje van Microsoft Azure om en bij de NS kon geen OV fiets meer worden gehuurd, werkte de reisplanner niet en vielen de kaartautomaten uit. Een storing aan de Amerikaanse oostkust bij Amazon AWS verstoorde in Nederland Digid, de Belastingdienst, KPN en meerdere banken. Een instellingsfoutje in de VS dat Nederlandse kerndiensten (OV, belasting, banken, telecom) meteen verstoort. Want dat is efficiënt bij de aanschaf, echter zeer broos in de operatie.

Decentrale overheden bewaken in het Huis van Thorbecke nauwkeurig hun soevereiniteit ten opzichte van het Rijk. Dat is ook de reden dat ze hun eigen IT inkopen doen. Maar het wrange is dat men daarmee de soevereiniteit die men verdedigt tegen het Rijk uitlevert aan grote IT bedrijven. De grondwettelijk netjes ingerichte kamer in het Huis van Thorbecke verwordt zo tot een ophokplicht in de cloud.

De soevereiniteit die men verdedigt tegen het Rijk is uitgeleverd aan grote IT bedrijven.

Samenwerking biedt de weg naar voren, zodat je dingen kunt doen die buiten je eigen bereik liggen zonder je uit te leveren aan ondermijning van je soevereiniteit.
Dergelijke samenwerkingsmogelijkheden zijn ruimschoots voorhanden. De VNG uiteraard, en het overheidsbrede digitale overheid overleg (OBDO). Het is zinvol je als gemeente actief bezig te houden met de Nederlandse Digitaliseringsstrategie (NDS) en de interbestuurlijke datastrategie (IBDS). Op meer operationeel vlak zijn er ook genoeg mogeljkheden samen aan kennis en verandering te werken. Developer.overheid.nl, de open source policy officer bij BZK en het Rijks ICT Gilde zijn logische ingangen.
Europees is die samenwerking ook beschikbaar. Sinds kort is er de EDIC Digital Commons, een samenwerkingsverband van EU Lidstaten om met praktische projecten digitale autonomie en soevereiniteit in de publieke sector te versterken. Nederland is een van de oprichtende landen, en levert de voorzitter, in de persoon van de directeur CIO Rijk. In het algemeen is de Europese regelgeving t.a.v. data en digitalisering veel nadrukkelijker in te zetten als kwaliteitsinstrument voor de eigen informatiehuishouding en de IT-markt.

Beginnen met laaghangend fruit is ook belangrijk. Je hoeft niet met verandering te wachten tot je op papier een oplossing hebt voor de lastigste stukken van je IT-inrichting. Dat is eerder een vijgenblad voor niet willen veranderen. In beweging komen is een helder signaal naar de organisatie en de omgeving dat het openbaar bestuur de eigen digitale soevereiniteit en het beschermen van burgerrechten daarbij serieus neemt.
Feit is ook dat 80% van ons op het werk niet veel meer doet met IT dan technisch eenvoudige documenten schrijven en mailen. Dit betekent dat niets een organisatie in de weg staat om per direct bijv. de MS Office suite te verruilen voor bijvoorbeeld LibreOffice of de Nextcloud Suite. De paar mensen die met lastige macro’s of ingewikkelde spreadsheets werken laat je de switch dan later maken. Evenzo is het een heel eenvoudig maar wel sterk signaal naar buiten om per direct te stoppen met het gebruik van communicatiemiddelen die burgers vasthouden in van AI-gegenereerde inhoud en desinformatie vergeven advertentieplaforms als X en die van Meta (Facebook, Instagram, WhatsApp). Die stapjes lossen het soevereiniteitsprobleem niet op, maar ze doorbreken de status quo. Die status quo doorbreken is een noodzakelijk signaal om te laten zien dat verandering kan en dat jij en je organisatie daarin handelingsmacht hebben.

Want goed beschouwd is het voor het openbaar bestuur al zeker twee decennia niet fatsoenlijk uit te leggen waarom de huidige IT keuzes worden gemaakt, afgezet tegen autonomie, soevereiniteit, en het uitleveren van handelingsmacht aan derden. Op het kruispunt van de spelregels, zoals die uit de digitale markten en diensten verordeningen (DMA, DSA), de AVG, de Datagovernance en Data verordeningen t.a.v. interoperabiliteit en portabiliteit, en de zeer verschillende waardensets die geopolitiek langs digitale weg worden uitgedragen (Europa, VS, China) is het duidelijk welke afslag de overheid moet nemen. De soevereine weg, want anders is die weg.

Over at Netzpolitik two leaked draft texts for new EC proposals w.r.t. data and digital legislation have been published. I’ve been reading them the past days, though not yet finished. In a week the final proposal should be announced by the EC. That they have been leaked beforehand tells you there’s some differences of opinion within the EC on this, giving the outside a way to read ahead and mount criticism in time.

The EC’s goals for digital regulation this period are simplification, consistency and clarity. In consultations for the upcoming European Data Union Strategy, I and others put forward to please not merely interpret ‘simplification’ as rule slashing. Simplification can also mean making it much easier to demonstrate compliance. And it would also help if the EC would come out and say the quiet part out loud: that a lot of wat is now presented by third parties as cumbersome regulation is in reality malicious compliance by those third parties. The annoying cookie walls of the past years e.g. are not in any way required by regulation, it’s just the single most annoying way for third parties to deal with it so you might think the EC is the problem. Tracking is the problem, that adtech is fundamentally in conflict with the rules is the problem. It’s not a ‘compliance burden’ if your actions bump into the law. That’s properly called ‘illegal actions’. Simplification in short could also mean a much clearer enforcing of existing rules, as most digital regulation now has very little in the way of actual consequences for third parties, and none that rise above the ‘cost of doing business’.

There are two ‘Omnibus’ proposals in the works, meaning a proposal that makes changes to a number of existing laws at the same time.

One deals with data regulations. It amends the Data Act in such a way that the Data Governance Act, the Open Data Directive and the Free Flow of Non-Personal Data Regulation all get repealed, and mostly incorporated into the Data Act. I’m working my way through the meaning of that still, at 90 pages of text it’s not a quick read. But one thing stands out immediately to me: the Open Data rules until now were a Directive, meaning every Member State would create a national law to implement it. The entirety now gets added to a Regulation (Act), meaning it has immediate working across the EU. This is something I and others have long (like since 2008 more or less) called for, because as a directive it means there’s differences between countries in how open data gets interpreted. What can be open data is currently based on the national information access regimes and not on a unified European notion. I still need to explore how that would play out in the new Omnibus. This first Omnibus also touches the GDPR, and that is something to be careful about too.

The other Omnibus is aimed at the AI Act and the GDPR. I haven’t looked at this one at all yet. But around the web I see fears and first takes that the GDPR will get weakened to feed AI model training, a.o. by stretching the notion of ‘legitimate interest’ in ways that make Facebook’s attempt at interpretation of the term in the past years seem conservative. It used to be that legitimate should be read as ‘lawful’ (e.g. I need your name if I’m to send you an invoice, because I’m legally obliged to put that on the invoice), but we seem to shift to where the interpretation of legitimate is as ‘justifiable’, and at that in the very generic meaning of ‘well, I have my reasons, ok?’. Another step, judging by what others have posted, seems to do away with the notion that inferred data can be collection of personal data (As in, I did not ask you about your religion and stored that, but I inferred it from tracking your visits to websites of houses of worship).

In a week we will know what the proposals of the EC really are. Until then I will be reading the leaked drafts, to see what mechanisms are being created, dumped and altered.

Bryan Alexander provides an overview and interesting analysis of his current social media presences and what they mean and have meant for him, his work and interaction.
His summing up of the various platforms that used to be and currently are online places he frequents reminded me of how I talked about my online presences around 2007. What they did for me, and what I shared through these platforms.
I called it the Long List of My Distributed Self back then.

It read:

Blog, what I think about
Jaiku, what I am doing
Twitter, what I say I am doing
Plazes, where I am and where I was
Dopplr, where I will be
Flickr, what I see
delicious, what I read
Wakoopa, what software I use
Slideshare, what I talk about
Upcoming, where I will attend
Last.fm, what I listen to
and then there is my LinkedIn, my Facebook, my Xing, my Hyves, my NING, and my collaborative tools MindMeister, Thinkfold, and Googledocs.

That list these days is much shorter.

The utility of social software and web2.0 as we called it then, not social media, is that of leaving longer traces. Traces for others to stumble across, so that interaction can happen. As a way of ‘finding the others’, creating conversations and emergent networks of connections.

Bryan Alexander is the only blogger I never met in person and yet see as part of my inner circle of bloggers I’m in touch with through my feedreader. That interaction goes back 20 years. Talking about leaving longer traces.

All that in a context where the number of users on these platforms was smaller and, most importantly, well before the currently remaining of those platforms turned on them and started manipulating what everyone saw. Which ultimately moved them completely away of enabling longer traces, and made it harder to find the others. That affordance having been replaced by shoving those (and things) that are already highly visible in everyone’s face, without anyone seeking those out intentionally. And now adding the still denser fog of generated slop.

The change in those platforms, replacing lengthened human traces with adtech’s engagement optimising masquerading as such, has shortened that 2007 long list of my distributed self.

A range of services on that list shut down or were acquired and then subsumed, Jaiku, Plazes, Dopplr, delicious, Wakoopa, Hyves, NING, Thinkfold. Some of those in terms of functionality I still miss, especially delicious, Plazes and Dopplr.
Others showed themselves less capable of / suited for the type of longer traces and finding of others I was interested in, such as Upcoming, Last.fm, Xing.
Those that survived became toxic, Facebook, Twitter, Slideshare, Foursquare. My use of collaboration tools moved to less public environments although open source and self-hosted.

The current list of my distributed self is short, much shorter than in 2007.

  • Blog, this place here, still the main element, and across all of these service past and present the most long lived one and the one under my own full control. It generates conversations, although less in the comment section. Regularly though people, also first time commenters, respond using email.
  • Flickr, still in use, for 20 years now too, but it’s not much of a social space these days, more a convenient archive that I automatically add to from my phone. I have removed (almost) all embeddings of Flickr photos in this site and replaced them with a local copy of the image and a link to their location on Flickr, preempting any tracking unless one clicks the link. While I may still decide to do away with Flickr too at some point, currently its utility as a searchable and chronological archive of 43k of my photos is still high for me.
  • Hypothesis, a new entrant in the list, is a very useful annotation tool, that functions somewhat like an alternative for delicious, the bookmarking tool of old. It has a social aspect, centered around the annotated text, and while ‘finding the others’ through it doesn’t happen often it happens often enough to be delightful.
  • Mastodon, which does Twitter like it’s 2006, which I use from a single person instance, avoiding the scaling that led Twitter et al astray. I cut the ‘longer traces’ aspect short on Mastodon, deleting entries after a few days. Born out of practicality (Mastodon bloats the needed database volume at astonishing rates), it is also a recognition of those messages being ephemera, conversations in passing. Finding the others is still very possible through it, and messages I don’t want to treat as transient originate in my blog (which I then automatically cross post to my separate Mastodon profile), and resulting conversation comes back to my blog as well.
  • LinkedIn, which I can barely tolerate these days, since its timeline degenerated substantially early on in the pandemic. Mostly still there because I completely ditched that timeline (by unfollowing all contacts) and am treating LinkedIn as a self-updating rolodex. It means that I don’t regard or experience it as a social software tool for interaction or finding the others any more.

I shift my behavior as a given system changes how it operates, Bryan writes. True.
Those system changes have over time tended to making one’s online traces harder to stumble across (by reducing interoperability, closing off, and eroding the very building block of the web, the link), and making finding the others harder (even the strongly diminishing quality of web search itself is part of that). A likely answer to that is more distributed approaches, with your self at the core, and navigating widening circles of contacts found through other contacts. The triangulation for that still works but it does take more attention and effort. The trouble is that for most of us it’s not within our agency to do that technologically ourselves. A balancing between that and the avoidance of centralised silos (old and new) is to be sought. Here be dragons, not unicorns.