Chaos Computer Club - recent events feed (low quality)

Nov 01 2020 40 mins 157

A wide variety of video material distributed by the Chaos Computer Club. This feed contains events from the last two years














Murderboard: Wo Krimi, Privatsphäre und IT-Sicherheit zusammenkommen (pw20)
Nov 01 2020 50 mins  
Tatorte sind Orte eines Geschehens. Meistens ist das Ereignis nichts Wünschenswertes. Es gibt Täter:innen, Opfer, Beutegut, und ein Schaden ist auch entstanden. Wir illustrieren die Parallelen zwischen Analog und Digital mit Hintergrundwissen und Fällen. Das #TheMurderBoard Projekt, auf dem dieser Vortrag basiert, entstand aus beiläufiger Kommunikation. Im Zuge einer Diskussion um IT Sicherheit und Datenschutz kamen zufällig die Gemeinsamkeiten von Ermittlungen aus Kriminalgeschichten, fiktiv oder realitätsbasiert, und Vorfällen mit digitalen Umgebungen zutage. Der Vortrag möchte die verschiedenen Stufen von Taten am Beispiel von geschilderten Fällen, dem Bezug zu der eigenen (persönlichen) digitalen Welt und dem Vorgehen der Täter:innen mit Hintergrundwissen über die Methoden aus der Sicht der Angreifenden darstellen. Es geht dabei um den Bezug zum eigenen Datenschutz. Die „andere Seite“ wird auch beleuchtet, weil die Frage nach „Warum ich?“ nicht immer beantwortet werden kann. Analog wie digital kann man sowohl gezielt attackiert wie auch zufällig zu Schaden kommen. Der Vortrag soll helfen Vorfälle besser einordnen und Schutzmaßnahmen wirksamer gestalten zu können. Darüber hinaus versuchen wir, wie beim „Murder Board“ von Ermittlern, Zusammenhänge geordnet darzustellen und aus den Einzelteilen der Geschichten (die man auch hört/liest/sieht) ein Bild zu zeichnen, welches der Orientierung dienen soll. Das Spektrum reicht von Datendiebstahl über organisiertem Verbrechen bis hin zu Industriespionage. Der rote Faden dabei: Es passiert leider nicht immer nur den anderen… about this event: https://cfp.privacyweek.at/pw20/talk/F3GP3Y/

Imaging the Ideal Smart Citizen in Future Urban Environments (pw20)
Oct 29 2020 43 mins  
This talk takes a closer look on newtown 'smart cities' and the role of its citizens in Middle East and East Asia. The artistic research is presented in form of a multichannel video installation, decoding the visual and rhetorical language of “smartness”. This talk takes a closer look on greenfield initiatives branded as 'smart cities' and its citizens in Middle East and East Asia. The management and sustainability of these newly established urban areas is one of the most critical challenges our society faces today. Ubiquitous computing and Artificial intelligence create interconnected monitored urban environments that promise improved living standards, optimizing efficiency, sustainable development, Eco-friendliness and personal security. A comparative study of 11 smart cities promotion videos indicates that these newtown projects are planned and promoted as final products for their ideal citizens. However, first hand observations of smart cities in South Korea, show that not all citizens who eventually live in greenfield cities conform to the idealized smart citizen characteristics and begin re-appropriating their living space by using various strategies to shape the city to their needs. This demonstrates that the development of a city is an ongoing process and never finalized. The artistic research is presented in form of Future past still in the making a multichannel video installation comprising of; recorded material from smart city visits in South Korea, marketing material published by corporations and smart city initiatives, time-laps satellite images and using face recognition tools in a search for the ideal citizen, decoding the visual and rhetorical language of “smartness”. about this event: https://cfp.privacyweek.at/pw20/talk/SCP3R9/





Gesellschaftliche Teilhabe in der Krise – Von digitalen Brücken und Brüchen (pw20)
Oct 29 2020 54 mins  
Diese Diskussionsrunde beleuchtet die Rolle digitaler Infrastrukturen für Prozesse gesellschaftlicher Teilhabe im Sozialraum Stadt und wie der Einfluss der Corona-Krise, die Hürden und Potentiale von Technologie und menschliche Perspektiven neu in Szene setzt. Politik und Gesellschaft versprechen sich viel von Digitalisierung und dem Ausbau digitaler Infrastruktur. Die Corona-Krise rückte die Grenzen und Potentiale digitaler Technologien drastisch in den Vordergrund. Doch halten die Fortschrittsverspechen, die die Digitalisierung als beste Lösung für gesellschaftliche Probleme propagieren, stand, wenn man sie durch die Brille einer Vielzahl und Ungleichheit menschlicher Lebensrealitäten betrachtet? Wer gerät unfreiwillig ins oder aus dem Blickfeld? Wer kann sich überhaupt wie sichtbar oder unsichtbar machen? Welche Fragen bleiben unbeantwortet oder werden gar nicht erst gestellt? Mit Blick auf die pluralen Perspektiven beschäftigt(e) sich das Forschungsprojekt DIP – „Digitale Infrastrukturen der Partizipation in Wien“ – mit verschiedenen Formen gesellschaftlicher Teilhabe im Zeitalter der Digitalisierung. Im Zentrum standen die Politikformen marginalisierter Bevölkerungsteile und deren Anforderungen an den digitalen Wandel. In dieser Paneldiskussion, beleuchten wir Aspekte aus unserer aktuellen Forschungsarbeit und stellen die grundlegenden Fragestellungen zur Diskussion. Hierzu freuen uns Angelika Adensamer - als kritische politische Stimme von LINKS -, Max Fuxjäger - aktiv bei Fridays for Future -, Tereza Maletz - aus soziologischer Perspektive auf die Straßenzeitung Augustin-, und das Publikum zu einer anregenden Diskussion begrüßen zu dürfen. about this event: https://cfp.privacyweek.at/pw20/talk/CWF8LY/









Problematische Algorithmen greifen in unser Leben ein - was sind die Probleme und mögliche Ansätze zur Regulierung? (pw20)
Oct 27 2020 52 mins  
Wie greifen Algorithmen in unser Leben ein, was können sie dabei anrichten, welche Ungenauigkeiten, Generalisierungen, Vorurteile, Diskriminierungen werden beim Design und der Implementierung von Algorithmen umgesetzt und wie könnte eine Reglementierung aussehen? Immer öfter und immer tiefer greifen Algorithmen in unser Leben ein. Dies geschieht entweder auf der Basis von Statistik oder auch Artificial Intelligence, was aber letztendlich oft für die Betroffenen keinen Unterschied macht. Dabei entstehen auf Grund inherenter Problematiken Fehler wie z.B. vielfältige Formen der Diskriminierung, bzw. die Perpetuierung bestehender Verhältnisse und Systeme. Dies wird an Hand von Beispielen wie dem AMS-Algorithmus, automatic sentencing, und anderen dargestellt und untersucht. Der Vortrag stellt dann eine Systematik der Fehlerquellen vor. Das beginnt bei Fehlern in der Programmierung, aber viel wichtiger sind Fehler bei der Auswahl des Verfahrens und die Limitierung dass für den Algorithmus grundsätzlich immer nur die Daten verwendet werden können, die nun mal vorliegen oder erhebbar sind. Dazu kommen weitere Probleme durch die Parametrisierung des Algorithmus, d.h. das Setzen von Prioritäten und Zielvorgaben. Dazu darf nicht vergessen werden, dass die letztendlichen Ziele die der Algorithmus implementieren soll grundsätzlich von außen vorgegeben werden und nichts mit neutraler Mathematik zu haben. Zum Abschluss werden die aktuellen Entwicklungen zur Kategorisierung und möglicher Reglementierung von Algorithmen analog zu Konzepten der Datenschutzgrundverordnung (DSGVO) vorgestellt. Details zu problematischen Algorithmen auch auf https://sicherheitskultur.at/Manipulation.htm#diskriminierung about this event: https://cfp.privacyweek.at/pw20/talk/NAVSKC/













Suspicious behavior - a data annotation tutorial (pw20)
Oct 30 2020 41 mins  
Automated surveillance and new machine vision techniques are developed to spot anomaly actions. The artwork “Suspicious Behavior” shows a world of hidden human labour, which builds the foundation of how ‘intelligent’ computer vision systems interpret our actions. Machine vision technologies, such as object recognition, facial recognition and emotion detection, are increasingly used to turn images into information, filter it and make predictions and inferences. In the past years these technologies have made rapid advances in accuracy. The reasons for current developments are: the revival of neural networks enabling machine learning from observing data, access to massive amounts of data to train neural networks, and increased processing power. This naturally causes excitement among innovators who are implementing these technologies. In the world of automated surveillance new machine vision techniques are developed to spot suspicious behavior without human supervision. As in all pattern recognition applications the desire is to translate images into behavioural data. Multibillion-dollar investments in object detection technologies assume that it is easy for computers to extract meaning out of images and render our bodies into biometric code, yet trial and error approaches have already revealed that machine learning is far from objective and emphasises existing biases. Human biases are embedded in machine learning systems throughout the process of assembling a dataset e.g. in categorising, labelling and cleaning training data. What is considered suspicious in one cultural context might be normal in another, hence, developers admit, “it’s challenging to match that information to ‘suspicious’ behavior”. Nevertheless, the surveillance industry is developing “smart” cameras to detect abnormal behavior to detect and prevent unsought activities. Moreover the current covid-19 pandemic has accelerated the development of computer vision applications, tracing new forms of dubious behavior. The work “Suspicious Behavior” shows a world of hidden human labour, which builds the foundation of how ‘intelligent’ computer vision systems interpret our actions. Through a physical home office set-up and an image labelling tutorial the user traverses into experiencing the tedious work of outsourced annotators. In an interactive tutorial for a fictional company the user is motivated and instructed to take on the task of labelling suspicious behavior. The video clips in the tutorial are taken from various open machine learning datasets for surveillance and action detection. Gradually the tutorial reveals how complex human behavior is reduced into banal categories of anomalous and normal behavior. The guidelines of what is considered suspicious behavior illustrated on a poster series and disciplined in the tutorial exercises are collected from lists of varied authorities. As the user is given a limited time to perform various labelling tasks the artwork provokes to reflect upon how easily biases and prejudices are embedded into machine vision. “Suspicious Behavior” asks if training machines to understand human behavior is actually as much about programming human behavior? What role does the ‘collective intelligence’ of micro tasking annotators play in shaping how machines detect behavior? And in which ways are the world views of developers embedded in the process of meaning making as they frame the annotation tasks? about this event: https://cfp.privacyweek.at/pw20/talk/NTCKBL/


Unfair Algorithmic Practices (pw20)
Oct 29 2020 52 mins  
When regulating AI the legislator may formulate positive requirements for AI to be lawful, or identify blacklisted AI practices that are found to be inconsistent with fundamental European values, e.g. discrimination, exploitation or manipulation of individuals. When regulating a particular area the European legislator may formulate mandatory requirements that need to be fulfilled for some activity to be lawful. Normally, these mandatory requirements take the form of principles (e.g. the principles for the processing of personal data in Art 5 GDPR), rules (e.g. the requirement of a legal ground under Art 6 GDPR), rights (e.g. the data subject’s rights), and procedures (e.g. a data protection impact assessment, documentation). This ‘PRRP approach’, which has been taken, for example, by the GDPR, has a number of benefits, including: (i) it sends a positive message and is of high symbolic value; and (ii) it is relatively straightforward to formulate (e.g. it does not take much ingenuity to add information or documentation duties on top of existing lists). The major downside, however, is that it tends to put up a lot of red tape and to mean a lot of extra bureaucracy and costs, potentially being to the detriment of SMEs and enhancing the competitive advantages and market power of the big players. An alternative to this PRRP approach is blacklisting, which is often combined with a general clause. This second regulatory technique has successfully been applied, e.g., for unfair contract terms control in consumer contracts (Directive 93/13/EC) and unfair commercial practices (Directive 2005/29/EC). Blacklisting means the regulator mainly restricts itself to stating what should definitely NOT be done, and possibly combining this with a fall-back option for similar cases in order to prevent circumvention and obvious gaps. The main drawbacks of this approach are: (i) it tends to send a ‘negative message’, i.e. is much more difficult to defend from a PR perspective; and (ii) it is relatively difficult to get the formulation of the blacklisted practices right, in particular for sensitive and ‘fuzzy’ areas, such as discrimination or manipulation. A major advantage of this approach, however, is that it hits in a much more targeted manner precisely what we all agree we want to avoid because of its inconsistency with fundamental European values, and leaves full freedom otherwise. It is also much easier to adapt to changing developments. This approach may be much more beneficial for innovation, in particular by SMEs. The European legislator may thus wish to consider whether – at least to a certain extent – an ‘unfair AI practices approach’ might be better for an innovation friendly environment in Europe than a comprehensive PRRP framework. At the end of the day, what might be the most beneficial solution is a combination of the following: 1. A set of fully horizontal principles whose main function would be to confirm basic European values and to guide the interpretation and application of the whole framework 2. A list of blacklisted AI practices, targeting effects we want to avoid in any case, such as discrimination (taking into account that AI may not discriminate along the same criteria as humans do), exploitation of vulnerabilities, profiling and scoring with regard to most intimate human characteristics, total surveillance, manipulation, etc. 3. For defined high-risk applications only: a comprehensive regulatory framework that includes rules, procedures and rights of the types mentioned in the EU White Paper (p. 18 ff.). about this event: https://cfp.privacyweek.at/pw20/talk/YVZMVR/

WE USED TO HAVE CAKE, NOW WE'VE BARELY GOT ICING (pw20)
Oct 27 2020 63 mins  
Back then, free software was icing on the cake. Then they stole the cake and left us hoping for a little icing every now and then. Now, software has eaten the world and shit out a dystopia. When free software licensing was born, software copyrights were essentially nonexistent, software patents didn't exist at all, terms of service weren't enforceable and there was no anticircumvention law. In other words, you were legally permitted to clone or interoperate with any digital product. Today, we think of free software as a way for a company to say, "We probably won't sue you if you write code that can interoperate with ours" - but when free software started, it was more like, "I know I've got the absolute legal right to reverse engineer all your code and make a competing product, but that's such tedious work. Please, make it easy for me by giving me your sourcecode." Back then, free software was icing on the cake. Then they stole the cake and left us hoping for a little icing every now and then. This makes a huge difference because software has eaten the world and shit out a dystopia: a place where Abbot Labs uses copyright claims to stop people with diabetes from taking control over their insulin dispensing and where BMW is providing seat-heaters as an-over-the-air upgrade that you have to pay for by the month. Companies have tried this bullshit since the year dot, but Thomas Edison couldn't send a patent enforcer to your house to make sure you honored the license agreement on your cylinder by only playing it on an Edison phonograph. Today, digital systems offer perfect enforcement for the pettiest, most bullshitty, greediest grifts imaginable. about this event: https://cfp.privacyweek.at/pw20/talk/CCE37C/





Effekte höherer Ordnung bei der Einführung von autonomen Fahrzeugen (pw20)
Oct 29 2020 38 mins  
Dieser Vortrag behandelt die möglichen Effekte höherer Ordnung bei autonomen Fahrzeugen. In Studien zu den Auswirkungen autonomer Fahrzeuge werden direkte primäre Auswirkungen prognostiziert ohne zu untersuchen, welche sekundären Auswirkungen diese haben könnten. Der Vortrag versucht von den primären Auswirkungen die in Studien prognostiziert werden weiter zu denken und zu schauen, was denn die weitergehenden Folgen sein könnten. Bei dem Vortrag wird auch berücksichtigt, dass sehr oft autonom implizit gleich gesetzt wird mit "shared" und "electric" - was aber durchaus nicht klar gegeben ist. So kommt bei vielen Studien heraus, dass autonome Fahrzeuge deutlich "grüner" sind als herkömmliche, solche Ergebnisse ergeben sich aber sehr oft erst dadurch, dass diese Gleichsetzung mit "shared" und "electric" geschieht. Eine weitere Problematik die untersucht wird ist die Möglichkeit, dass sich traditioneller Verkehr mit autonomen Fahren nicht verträgt. Wenn die Aktivitäten der Auto-Lobby berücksichtigt werden könnte durchaus der traditionelle Verkehr den Kürzeren ziehen (so wie zu Beginn des 20. Jahrhunderts Autos auf den Fahrbahnen das Primat gegenüber allen anderen Verkehrsteilnehmern bekommen haben). Fazit: Die Industrie pusht die Politik in Richtung 'autonomes Fahren', die Politik stimmt zu ohne dass wir wissen, worauf wir uns da einlassen. Analog dazu wusste um 1900 niemand welche riesige Zahl von Verkehrstoten der Straßenverkehr mal jährlich kosten würde. Viel mehr Details auf https://www.philipps-welt.info/autonom about this event: https://cfp.privacyweek.at/pw20/talk/ZN797H/

















Infrastructure at Arch - Making servers go brrrrr (arch-conf-2020)
Oct 10 2020 46 mins  
The number of services Arch provides has steadily grown over the years. How many services and servers are there, and how does it even all fit together? Also, what do we have planned for the future and how can you help? Find out in this talk! Arch Linux is a complex open-source project with many moving parts, quite a few pieces of infrastructure, and many people involved. Arch uses some modern DevOps tools like Ansible and Terraform. All of our infrastructure is entirely in the open (except for where is unreasonable to do so). While we do try to follow the general Arch dogma of keeping things simple, this sometimes conflicts with doing things _right_ and maintainable. We're mostly hosted at Hetzner with a few sponsored servers for non-critical and non-trusted services. Among our public services are: - Accounts/SSO - AUR - BBS - Bug tracker - GitLab - Mailing lists - Main page and package list - Mirror list - Patchwork - Security tracker - Wiki Next to these public services, we also operate quite a few staff-only services such as: - Build servers - Kanboard - Mail servers - Monitoring stack: Grafana, Prometheus, Alertmanager - Phrik - Quassel Our servers and services used to be hand-configured without any audit trail. In the past years, we've started the effort of formalising all services we operate using Ansible and Terraform which has been very helpful. ### Ongoing efforts While there have always been minor efforts here and there for various tasks, in recent times we've seen some increased activity especially in these topics: - Automation: Many parts in Arch have always been done manually. We're currently trying to automate many aspects of the release process for the ISO, VMs and Docker (all separate projects with different requirements). - Keycloak SSO migration: We want to have a central account service that allows for secure user account and access management. - GitLab migration: We want our GitLab to be the central point for code contribution, issue reporting, and automation. A full migration would also hopefully allow us to get rid of Flyspray, Kanboard, and Patchwork which decreases stack complexity. - Increase user engagement: As Arch Linux is a 100% volunteer-driven project, we need to be as friendly and welcoming to any potential outside contributors as we can. To this end, we're trying to increase bus factors and visibility to get users engaged. ### The future We have a long list things we eventually want to have and we're slowly moving there. The general outlook is: - More contributors - More automation - More openness - More granular access about this event: https://pretalx.com/arch-conf-online-2020/talk/B9BPWX/





























Planlose und rechtswidrige Feldbunker-Aufstockung? (gvgb11)
Aug 23 2020 47 mins  
Die Stadt Hamburg hat dem Großinvestor Matzen genehmigt, den von ihm seit den frühen 1990er Jahren günstig gepachteten Flakbunker in St. Pauli zu einem 60 Meter Hochhaus (mit Hotel, Gastronomie, Event-Räumlichkeiten, usw., also mit lauter Dingen, die es hier schon reichlich gibt) aufzustocken. Obwohl drumherum aktive Hamburgerinnen und Hamburger sich für mehr demokratische Bürgerbeteiligung bei Fragen der Stadtentwicklung und speziell ihrer unmittelbaren Wohnumgebung einsetzen, wurde die renditeträchtige Aufstockung ohne einen entsprechenden Planungsprozess durchgesetzt. Auch die im Juli am Verwaltungsgericht einzelrichterlich verhandelte Klage von Mario Bloem, eines Anwohners und Mitaktiven der Feldbunker-Initiative wurde als unerheblich zurückgewiesen. Mit diesem (schwer nachvollziehbaren) Urteil ist die Sache aber noch nicht vom Tisch: Mario geht in die Berufung und will vom Oberlandesgericht prüfen lassen, ob eine dem geltenden Baurecht entsprechende Planung mit Bürgerbeteiligung durchgeführt werden muss… Wir wollen über den aktuellen Stand berichten und darüber ins Gespräch kommen, was aus dieser Geschichte zu lernen ist. Die Feldbunker-Initiative hat sich zusammengefunden, als bekannt wurde, dass der Feldbunker aufgemotzt werden soll. Mit diverser Öffenlichkeitsarbeit (siehe Website) haben wir versucht, zum einen die komplexen Hintergründe zu verstehen und die ganze Sache zu verhindern und zum anderen einen politischen Prozess in Gang zu setzen, mit dem die zukünftige Nutzung des ganzen Heiligengeistfelds auf St. Pauli in aller Ruhe und formvollendet geplant wird – von allen, die daran interessiert wären. www.feldbunker.de about this event: https://c3voc.de











Race-to-the-bottom: Die Entwicklung der Bedrohungslage industrieller Steuerungssysteme und wie dies die Notwendigkeit zur Regulierung im Cyber Warfare verändert (dcon2020)
Feb 08 2020 60 mins  
Die Bedrohungslage industrieller Steuerungssysteme hat sich in den letzten Jahren dramatisch gewandelt. In diesem Vortrag wird die Entwicklung von ICS Exploits und Taktiken ausgezeigt, um den anhaltenden „Race-to-the-bottom“ zwischen ICS Bedrohungsakteuren und Verteidigern zu verdeutlichen. Darüber hinaus wird das Verhältnis zwischen Informationssicherheit und Arbeitsschutz (Safety) aufgezeigt, als auch inwiefern aktuelle Cyber-Bedrohungen traditionelle Entscheidungen zum Safety Design unterwandern und die Schutzfunktionen von Safety-Systemen beeinträchtigen können. Anschließend wird diskutiert, welche Ressourcen zum Abwenden von humanitären Krisen erforderlich sind, die aufgrund eines Ausfalls von kritischen Infrastrukturen hervorgerufen werden. Industrielle Steuerungssysteme (ICS) sind spezielle Informationssysteme, die zur Steuerung physischer Prozesse wie z.B. bei der Energieerzeugung oder in Produktionsanlagen eingesetzt werden. Angriffe auf diese Systeme werden oftmals als „cyber-physische“ Angriffe bezeichnet. Verschiedene Industrieprozesse sind gesetzlich als kritische Infrastrukturen klassifiziert worden, da das gesellschaftliche Wohlergehen auf deren Funktionsfähigkeit beruht. Hierbei wurde dem Schutz kritischer Infrastrukturen im letzten Jahrzehnt eine hohe Relevanz zugesprochen, da zum einen die Industrie inzwischen durch die Nutzung des Internets als auch durch den Einsatz von Standard Hard- und Software Sicherheitsbedrohungen ausgesetzt ist, von denen sie Historisch gesehen isoliert waren. Und zum anderen, da die potentiellen Auswirkungen von Angriffes auf kritische Infrastrukturen nicht länger ignoriert werden können. Die Bedrohungslage industrieller Steuerungssysteme hat sich in den letzten Jahren dramatisch gewandelt. Neue Gefährdungen sind aufgekommen, wobei der Einsatz von Stuxnet, eine Malware, die 2010 zur Zerstörung des iranischen Atomprogramms genutzt wurde, eine Verschärfung der globalen Besorgnis bewirkt hat. In diesem Vortrag wird die Entwicklung von ICS Exploits und Taktiken ausgezeigt, um den anhaltenden „Race-to-the-bottom“ zwischen ICS Bedrohungsakteuren und Verteidigern zu verdeutlichen. Darüber hinaus wird das Verhältnis zwischen Informationssicherheit und Arbeitsschutz (Safety) aufgezeigt, als auch inwiefern aktuelle Cyber-Bedrohungen traditionelle Entscheidungen zum Safety Design unterwandern und die Schutzfunktionen von Safety-Systemen beeinträchtigen können. Anschließend wird diskutiert, welche Ressourcen zum Abwenden von humanitären Krisen erforderlich sind, die aufgrund eines Ausfalls von kritischen Infrastrukturen hervorgerufen werden. Das Ziel dieses Vortrags umfasst zwei Themen: (1) Zuhörern wird die Konzeption eines fortgeschrittenen Angriffs mit dem Ziel der physischen Zerstörung einer kritischen Infrastruktur aus Sicht des Angreifers aufgezeigt, (2) Anregung zur Diskussion, wie der Einsatz von cyber-physischen Angriffen idealer Weise reguliert werden kann. Durch die potentiellen kinetischen Auswirkungen bei cyber-physischen Angriffen und insbesondere deren Möglichkeit, menschliche Opfer zu verursachen, ist es für die nationalen und internationalen Gemeinschaften von IT-Sicherheitsexperten, Regierungen und humanitären Anwälten dringend erforderlich, Diskussionen zu diesem Thema anzuregen. ####Aufzeichnung: [**hier**](https://youtu.be/z_UPM5WVIuA) ####Folien: [**hier**](https://www.defensivecon.org/slides/DefensiveCon_2020_Krotofil.pdf) about this event: https://cfp.defensivecon.org/dcon2020/talk/JL7WVG/



Machtpolitik im Informationsraum. Strategie, Taktik und Verteidigung (dcon2020)
Feb 08 2020 64 mins  
Eine geopolitische Betrachtung von Digitalisierung mit Fokus auf Informations"krieg" sowie einige Vorschläge zur digitalen Verteidigung. Über die Machtposition eines Staates wird in Zukunft auch seine "digitale Situation" entscheiden. Digitale Strategien flankieren die unterschiedlichen geopolitischen Ansätze der Großmächte USA, China und Russland, digitale Mittel werden auch von kleineren Staaten als strategische Ressource eingesetzt. Vormals zivile Bereiche bekommen vor dem Hintergrund weltweiter Vernetzung und digitaler Verletzlichkeit einen stärker sicherheitspolitischen Aspekt. Am Beispiel Informationskrieg soll gezeigt werden, -dass IT-Sicherheit/KRITIS-Sicherheit auch über Kampagnen gefährdet werden kann, -dass die "Versicherheitlichung" ehemals ziviler Räume daher so verstörend wie nachvollziehbar ist, -wie man zwischen einzelnen "Angriffen" unterscheiden kann -dass aber die bisher zu ihrer Verteidigung entwickelten Strategien umgekehrt nur althergebrachte Verantwortlichkeiten berücksichtigen und -dass zumindest im Informationsraum Angriff durchaus nicht die beste Verteidigung ist. Aufgefrischt wird der Vortrag mit der AfD Kommunikationstaktik, der Verteidigungsstruktur des Baltikums und einer neuen Initiative von Reportern ohne Grenzen. ####Aufzeichnung: [**hier**](https://youtu.be/Fx_dX8CnzNk) ####Folien: [**hier**](https://www.defensivecon.org/slides/Machtpolitik_Defense_05_vonFranque.pdf) about this event: https://cfp.defensivecon.org/dcon2020/talk/HLX3RA/


Strategieunfähig: Deutschland braucht eine Resilienzstrategie 2020 (dcon2020)
Feb 08 2020 50 mins  
In den letzten Jahren wurde schmerzhaft deutlich was viele bereits vermutet haben: Deutschland hat keine kohärente Strategie wie es die IT-Systeme und Infrastrukturen des Landes wirklich gegen Angriffe auf deren Verfügbarkeit, Integrität und Vertraulichkeit schützen will - Deutschland ist strategieunfähig und das muss geändert werden. Die erste Cybersicherheitsstrategie Deutschlands stammt aus dem Jahre 2010. Es handelte sich damals um ein Produkt des Innenministeriums was dazu eingelegt war die groben Strukturen für mehr Cybersicherheit in Deutschland zu schaffen. Hierunter fiel unter anderem der Aufbau des Cyber-Abwehrzentrums und des Cyber-Sicherheitsrates. Jedoch war diese Strategie sehr eng gefasst und brachte keine Vision hervor, wie inhaltlich oder mit der Architektur der deutschen Cybersicherheitsbehörden langfristig umgegangen werden soll. Die Hoffnungen waren groß, als die Bundesregierung ihre ressortübergreifende ("whole-of-government approach") Cybersicherheitsstrategie 2016 angekündigte. Leider wurde aller Optimismus schnell von der Realität eingefangen. Es handelt sich bei der Cybersicherheitsstrategie nicht um eine Strategie, sondern um ein Sammelsurium an Maßnahmen, welche die verschiedenen Behörden seit Jahren in der Schublade hatten. Ohne Analyse oder Evaulierung ob dies überhaupt notwendig oder zeitgemäß war. Hinzu kommt, dass die Strategie wieder keinen Masterplan für die behördliche Struktur hatte, über keinen hinterlegten Haushalt verfügte und die Belange der Industrie, Wissenschaft und Zivilgesellschaft absichtlich ignorierte. Auch ein Nachhalten des Umsetzungsstandes und eine Evaluation der Effektivität waren nicht vorgesehen. Interessant ist auch, dass beide Strategien als Reaktion auf geopolitische Ereignisse verstanden werden können: die 2010er als Antwort auf Stuxnet und die 2016er als Antwort auf die Snowden-Enthüllungen im Untersuchungsausschuss und den Angriff auf den Bundestag. Jedoch vermieden beide Strategien ein klares Bekenntnis zu IT-Sicherheit und Resilienz statt offensiver Cyberoperationen. Aktuell gibt es in der Welt zwei dominante strategische Ausrichtungen in der Cybersicherheitspolitik: 1. Die Nutzung von offensiven Cyberoperationen zur Abschreckung besserem Schutz der eigenen Systeme in Ergänzung zu defensiven Maßnahmen (z. B. USA/Israel) 2. Die Nutzung von offensiven Cyberoperationen zum Schaden des Gegners und der Überwachung der eigenen Bevölkerung ohne besonderen Fokus auf defensive Maßnahmen (u. a. China, Russland, VAE) Was hier fehlt ist eine Strategie die komplett ohne offensive Maßnahmen auskommt, bei defensiven Maßnahmen aber zusätzlich zu IT-Sicherheitsmechanismen verstärkt auf digitale und analoge Resilienz setzt. Auf europäischer Ebene nimmt das Thema Resilienz im Cyberraum gerade wieder Fahrt auf. Deutschland kann und muss eine treibende Kraft hinter dieser Initiative werden und einen dritten Weg anbieten; einen der komplett auf offensive Cyberoperationen verzichtet und diese lediglich für forensische Zwecke und Sicherheitsmaßnahmen wie Penetration Tests zulässt. Deutschland braucht eine Cybersicherheitsstrategie 2020 mit folgenden Kriterien: - Fokus auf Resilienz (digital/analog) als Vision - Evaluation der bisherigen Maßnahmen - Nachhalten und Beurteilung der Effektivität neuer Maßnahmen - Hinterlegung mit Finanzmitteln - Einbeziehung aller relevanten Sektoren ("whole-of-society approach") - Masterplan zur Architektur der Sicherheitsbehörden ####Aufzeichnung: [**hier**](https://youtu.be/qTRmKHoRSZo) ####Folien: [**hier**](https://www.defensivecon.org/slides/HERPIG-Resilienzstrategie für Deutschland.pdf) about this event: https://cfp.defensivecon.org/dcon2020/talk/MAMR8K/

CyberHilfsWerk - Konzeption für eine Cyberwehr 2.0 (dcon2020)
Feb 07 2020 62 mins  
Nachdem das Konzept einer Cyberwehr seitens des BSI aus verschiedenen Gründen gescheitert ist, stellt die AG KRITIS hier das selbstentwickelte Konzept eines CyberHilfsWerk (CHW) zur Vergrößerung der Bewältigungskapazitäten bei Großschadenslagen aus Cybervorfällen in kritischer Infrastruktur vor Um in entsprechenden Schadenslagen schnelle Hilfe zur Wiederherstellung der kritischen Dienstleistungen und Infrastrukturen bereitstellen zu können, müssen sich zivile Helfer organisieren und ihre Kräfte bündeln, analog zu den bereits existierenden Hilfsorganisationen auf anderen Gebieten. Die Arbeitsgemeinschaft Kritische Infrastrukturen strebt dafür die Gründung eines im bisherigen Entwurf so genannten Cyber-Hilfswerks (Arbeitstitel CHW) an. Hauptaufgabe ist die Organisierung ziviler Helfer und Spezialisten verschiedener Fachbereiche sowie die Bereitstellung von Verfahren und Rahmenbedingungen, um hauptamtliche Kräfte in (Groß-)Schadenslagen zu unterstützen. Es soll sich also um eine Organisation aus Freiwilligen und Ehrenamtlichen handeln, die bei einer digitalen Großschadenslage die bestehenden, derzeit aber geringen Bewältigungskapazitäten sinnvoll ergänzt und kritische Versorgungsdienstleistungen im KRITIS Umfeld wieder herstellt. Als schnelle Einsatzgruppe soll das CHW in der Lage sein kurzfristig auf Krisenszenarien zu reagieren und vor Ort an relevanten IT- sowie OT-Systemen der betroffenen Infrastruktur Hilfe zu leisten. Primäre Zielsetzung ist dabei immer der Schutz der Bevölkerung vor den Auswirkungen von Ausfällen oder Verschlimmerung der kritischen Infrastruktur. ####Aufzeichnung: [**hier**](https://youtu.be/63Uf3QwNXMY) ####Folien: [**hier**](https://www.defensivecon.org/slides/AG_KRITIS-CHW_Konzept_DefensiveCon2020_ijon.pdf) about this event: https://cfp.defensivecon.org/dcon2020/talk/77KJJQ/



Vorfallsunterstützung durch das BSI (dcon2020)
Feb 07 2020 56 mins  
Der Vortrag gibt einen Überblick über das Incident Response Portfolio des BSI über alle Phasen des Incident Response Life Cycles. Angefangen bei grundsätzlichen Empfehlungen, über Einzelfallberatungen bis hin zu einem Mobile Incident Response Team (MIRT) Einsatz beim Betroffenen bietet das BSI, je nach Zielgruppe, eine Reihe an Unterstützungsmöglichkeiten an, die beim Vortrag im einzelnen vorgestellt werden. Das Bundesamt für Sicherheit in der Informationstechnik (BSI) ist die nationale Cyber-Sicherheitsbehörde des Bundes. Das BSI ist verantwortlich für den Schutz der Regierungsnetze und ein Hauptakteur für die Cyber-Sicherheit bei Kritischen Infrastrukturen, insbesondere im Rahmen der NIS-Richtlinie der Europäischen Union. Der Vortrag gibt einen Überblick über das Incident Response Portfolio des BSI über alle Phasen des Incident Response Life Cycles: Preparation, Detection & Analysis, Containment / Eradication & Recovery and Post-Incident activity. Angefangen bei grundsätzlichen Empfehlungen, über Einzelfallberatungen bis hin zu einem Mobile Incident Response Team (MIRT) Einsatz beim Betroffenen bietet das BSI, je nach Zielgruppe, eine Reihe an Unterstützungsmöglichkeiten an, die beim Vortrag im einzelnen vorgestellt werden. Dabei werden die Aktivitäten durch eine ganze Reihe an Bereichen im BSI unterstützt und der Vortrag zeigt, warum eine breit aufgestellte Cyber-Sicherheitsbehörde ein essenzieller Faktor für Incident Response Fähigkeiten auf nationaler Ebene ist. ####Aufzeichnung: [**hier**](https://youtu.be/la7zh_zEvHM) ####Folien: [**hier**](https://www.defensivecon.org/slides/BSI_Vorfallsunterstützung_Dwucet.pdf) about this event: https://cfp.defensivecon.org/dcon2020/talk/SNQUTM/

Assume Trauma - Resilienz und Coping-Mechanismen bei kritischen Infrastrukturen (dcon2020)
Feb 08 2020 58 mins  
Resilienz ist weit mehr als Verfügbarkeit und wurzelt in Disziplinen wie Ökonomie, Psychologie und Philosophie. Der Vortrag trägt die verschiedenen Konzepte zusammen und hält diese gegen aktuelle Konzepte wie Chaosengineering, BeyondProd, Shift Left und Defend Forward, um die Frage zu beantworten, welche Eigenschaften Systeme wie kritische Infrastrukturen tatsächlich resilienter machen. *Resilienz* hat sich längst zum zentralen Buzzword entwickelt, wenn es um den Schutz der Versorgungssicherheit in kritischen Infrastrukturen (KRITIS) geht. Passend zum Paradigma "Assume Breach" geht man auch bei der Verfügbarkeit inzwischen nicht mehr davon aus, dass diese in jeder Situation aufrechterhalten werden kann, sondern versucht, Systeme so zu designen, dass sie nach einer Schädigung (griech. *Trauma* - auch der Begriff der Resilienz stammt ursprünglich aus der Psychologie) möglichst bald und idealerweise selbstständig wieder in den Normalbetrieb "zurückspringen" (lat. *resilire*). Der Vortrag trägt Theorien und Ansätze aus der Systemtheorie (*Antifragilität*), Biologie (*Autopoiesis*), Psychologie (*Stress*- und *Trauma*therapie sowie *Coping*-Mechanismen) zusammen, um die Frage zu beantworten, welche Eigenschaften und Umgebungsparameter Systeme resilient(er) machen und gleicht diese mit aktuellen Ansätzen wie *Chaosengineering*, *BeyondProd*, *Shift Left* und *Defend Forward* ab um diese daraufhin abzuklopfen, was wirklich eine Chance hat, schnelle Wiederanlaufzeiten zu garantieren. ####Aufzeichnung: [**hier**](https://youtu.be/eUT23j7GQgI) ####Folien: [**hier**](https://www.defensivecon.org/slides/2020-02 DefensiveCon - David Fuhr - Assume Trauma v1.0.pdf) about this event: https://cfp.defensivecon.org/dcon2020/talk/FTJDCL/


Von Glashäusern und Steinewerfen. Strategische, rechtliche und politische Überlegungen vor dem zurück hacken (dcon2020)
Feb 08 2020 60 mins  
Es ist unklar, inwiefern hackbacks tatsächlich zur Erreichung politischer Ziele, nämlich dass Angriffen aufhören oder verhindert werden, taugen. Neben der Frage der Effektivität, stellen sich eine ganze Menge strategischer, politischer und rechtlicher Fragen, bevor ein Gegenangriff initialisiert wird. Der Talk wirft genau diese Fragen auf, die sich politische Entscheidungsträger stellen wollten, bevor sie vorschnell zum Mittel des Hackbacks greifen. Die Anzahl jährlicher Cyber-Angriffe steigt wie gewohnt und immer mehr Staaten nutzen digitale Fähigkeiten immer offensiver: Russland zur Beeinflussung von Öffentlichkeiten und des Informationsumfeldes, China zur wirtschaftlichen Spionage und zum technologischen leap-frogging, Nord-Korea zum Umgehen von Sanktionen und zur Aufbesserung der Staatskasse und die USA zur weltweiten Machtprojektion und politischen Spionage. In die Cyber-Offensive werden viel Zeit, Energie und Geld gesteckt. Dagegen ist innerhalb der meisten Staaten vollkommen ungeklärt, wie man auf Cyber-Angriffe zu reagieren habe. Eindrücklich zeigt sich dies etwa an Vorfällen wie dem Sony Hack 2014, oder der Beeinflussung der US Wahl 2016, wo die größte Cyber-Macht der Welt, relativ ratlos dastand. Auch in kleineren Staaten wie Deutschland und Frankreich herrscht allgemeine Rat- und vor allem Strategielosigkeit, wie man politisch auf Cyber-Angriffe reagieren soll. Es scheint nur schlechte Optionen zu geben: internationale Anklageschriften haben nur symbolischen, aber keinen operativen Effekt auf Angreifer. Wirtschaftliche Sanktionen sind ungenau und oftmals ebenso wenig effektiv. Abschreckung funktioniert im Digitalen nicht. Rüstungskontrollregime sind nicht in Sicht. Aufgrund dieser Ratlosigkeit experimentieren immer mehr Staaten mit digitalen Gegenreaktionen, „hack backs“ oder euphemistisch, aktive Cyber-Verteidigung genannt. Dabei ist die Wirksamkeit von „hack backs“ umstritten. Inwiefern taugt das Mittel zur Erreichung politischer Ziele? Hören danach Angriffe wirklich auf? Was sind etwa die geostrategischen Implikationen, wenn man gegen russische oder iranische APT zurückschlägt? Wie sieht die Eskalationsleiter aus und wer hat die Eskalations-Dominanz? Wo sind eigene rote Linien? Neben diesen strategischen Fragen stellen sich für die Zivilmacht Deutschland auch völkerrechtliche Fragen. Nicht auf jeden Hack darf nach dem Völkerrecht reagiert werden, insbesondere wenn die Attribution unklar ist. Gegenreaktionen müssen völkerrechtlich proportional und zeitnah geschehen, was operativ nicht trivial zu realisieren ist. In Deutschland stellen sich aber auch konkrete verfassungsrechtliche Hürden, die verhindern, dass Deutschland in Friedenszeiten Schäden in fremden Territorien anrichtet. Der Talk wirft Fragen auf, die sich politische Entscheidungsträger stellen sollten, bevor sie zum Mittel des Hackbacks greifen. ####Aufzeichnung: [**hier**](https://youtu.be/Z1qQieYd7SY) ####Folien: [**hier**](https://prezi.com/view/VpI0fsChveMp1i7dO2OS) about this event: https://cfp.defensivecon.org/dcon2020/talk/9E7MLJ/










Democratizing and Decolonizing the Future (DS2020)
Sep 20 2020 47 mins  
In this online podium discussion we will present the power of critical ideas and show examples of utopian futures in the making in Indonesia. The projects created by Indonesian hackers and makers use technology to solve one or more local problems, attempting to create more equitable and positive future for their communities. They will be streamed as they happen live: different projects from around Indonesia will show how they make social change happen. Indonesia has a striving hacker and maker, activist and innovator ecosystem, and many of them have been active for more than 20 years, since the first free elections were held in 1999. They have been asking difficult questions about society and finding answers that they choose to represent in different ways: music festivals, educational workshops on climate change or privacy, community projects that involve artists and locals, or building ICT-infrastructure to allow people in rural areas to access the Internet and thereby, information. In this session, we will try to bring some of them together to show the projects they’re working on today to turn the dystopia into a utopia. Two projects are confirmed, including - Benny, a media artist & independent media researcher, started in 1999 and involved in various national and also international media events.He focuses on human-machine and machine-machine interaction. Recently he formed a collaborative project with interdisciplinary colleagues as "Oknum Media Kolektif" and some of the works are: Bitversus, Double Layer Panopticon, Mencari Wiji (searching for Wiji), Rekombinan & Insitu. He will share some experiences of those works. - Irene Agrivina is an open systems advocate, technologist, artist and educator. She is one of the founding members and current directors of HONF, the Yogyakarta based new media and technology laboratory. Created in 1998 as a place of open expression, art and cultural technologies in the wake of the Indonesian "revolution", HONF aka the 'House of Natural Fiber' was born out of the social and political turmoil against the Suharto regime, its nepotism and governmental corruption. Agrivina will share her experiences working with affordable and open technologies for grassroots movement in Indonesia. - Common Room has been involved in developing an urban/rural collaboration platform together with Kasepuhan Ciptagelar indigenous community in West Java since 2013. For this session, Common Room will share some experience in developing local community-based internet infrastructure in Ciptagelar region. - Instead of creating new applications, Hysteria Collective uses existing tech for community advocacy work: for example, to tell the history of a village. We use anthropological methods to build relationships with communities in order to explore community solidarity and we look for the collective memories through daily life stories and folklore. To tell these stories and emphasize the outcomes, we use technology as a tool, way or method to achieve the goal of sharing the stories, for example, through open street map, aurasma or HP reveal and social media. What ties these projects together is their capability to critically assess the current societal, political, technological situation and address it in meaningful ways to show that the future can be safer, sounder and more equal for all of us. The solutions they come up with are just as diverse as the problems they address, so let’s hear more about it from them. about this event: https://datenspuren.de/2020/fahrplan/events/11322.html








From Data-Mining via predictive Analytics to Surveillance Captitalism (DS2020)
Sep 19 2020 44 mins  
Der Kapitalismus, in dem wir leben, hält immer noch daran fest, unser Verlangen zu kontrollieren. Deshalb wird er untergehen, wenn er sich nicht ändert, sagt die amerikanische Ökonomin Shoshana Zuboff. Alles, was digitalisiert und in Information verwandelt werden kann, wird digitalisiert und in Information verwandelt. Zuboffs zweites Gesetz: Was automatisiert werden kann, wird automatisiert. Zuboffs drittes Gesetz: Jede Technologie, die zum Zwecke der Überwachung und Kontrolle kolonisiert werden kann, wird, was immer auch ihr ursprünglicher Zweck war, zum Zwecke der Überwachung und Kontrolle kolonisiert. Die Richtigkeit dieser 3 Gesetze zeigt sich in zunehmemdem Umfang. Unternehmen und Institutionen fischen in großem Maß Daten ab moderne KI errechnet Prognosen des zukünftigen Verhaltens anhand dieser Daten werden pausenlos überwacht und kontrolliert . 1984 war nur ein düsterer Zukunftsroman dies ist noch viel düstere Gegenwart. Die Überwachung ist subtil und verdeckt; sie ist eingebettet in Dinge, auf die wir tagein, tagaus angewiesen sind. Nur Experten, nur Informationswissenschaftler und Hacker begreifen noch, wie weit das alles fortgeschritten ist. Wir als Gesellschaft verstehen das nicht mehr. Die Infrastruktur für die Regelung der neuen Informationswege ist bis jetzt nur in kleinen Teilen vorhanden. Es gibt kein übergreifendes Konzept. Uns dämmert erst langsam, dass Einrichtungen, denen wir unser Vertrauen geschenkt und die wir als unsere Freunde angesehen haben, Facebook zum Beispiel oder Google, nicht nach einer neuen Logik handeln, sondern nach der altbekannten, die unseren Interessen zuwiderläuft. Welche Richtung die Informationstechnologie einschlägt, kommt darauf an, wie einige gesellschaftliche und ökonomische Kernfragen beantwortet werden. Zurzeit geschieht das ohne Regeln und Gesetze. Die Praxis trifft jetzt die Entscheidungen. Etwas geschieht, weil Facebook, weil Google, weil die Regierung der Vereinigten Staates es so wollen. Der rechtliche Rahmen fehlt. Ich bin weder Verschwörungstheoretiker noch Apokaplytiker, noch will ich Sie bekehren - doch lassen Sie mich Ihnen anhand von Fakten einige Denkanstösse geben. Wir haben ein institutionelles System aufgebaut, das perfekt auf die Erfordernisse der Massenproduktion und des Massenkonsums zugeschnitten ist und weit über die entsprechenden Firmen und Dienstleister hinausreicht. Die Logik der Massenproduktion wurde zur Grundlage unseres Erziehungssystems, unserer Krankenversorgung, aller Sphären unserer Gesellschaft. Seit dem letzten Jahrzehnt des 20. Jahrhunderts kommt es aber zu einer immer heftigeren Kollision zwischen dem neuen Bewusstsein, das ich psychologische Selbstbestimmung nenne, und einem Wirtschaftssystem, das auf große Handelsvolumen, geringe Produktkosten und Standardisierung angelegt ist, eigentlich nicht anders als zu Zeiten von Henry Ford. etzt aber sind wir auf dem Weg in eine Welt der dezentralisierten Wertschöpfung, des distributed capitalism. Das ist keine technologische Metapher. Die Dezentralisierung geht von den Individuen aus, die nunmehr die Quelle ökonomischer Werte sind. Individuen sind aber nicht innerhalb einer Organisation zu finden, sie treten nicht in konzentrierter Form auf, sie verteilen sich über ihre dezentralisierten Lebensräume. Folglich muss sich auch der Handel dezentralisieren, um in diesen Lebensräumen Wirkung zu zeigen. Heute haben wir erstmals eine technologische Infrastruktur, die ebenso dezentralisiert ist. Facebook schien einmal uns zu gehören. Es war unser Raum. Jetzt verstößt Facebook immer wieder gegen die ökonomische Logik des individuellen Raums, widersetzt sich unseren Interessen und zerstört unser Vertrauen. Google verhält sich nicht anders. Der Machtwille der Firma ist sichtbar geworden, auch ihre Manipulation von Algorithmen und ihre Bereitschaft zur Überwachung. Wir fühlen uns bloßgestellt, allein schon durch eine Google-Suche. Meine beiden Kinder haben Facebook innig geliebt. Heute rühren sie es nicht mehr an. Facebook, das ist für sie jetzt: die da. Und nicht mehr: wir. about this event: https://datenspuren.de/2020/fahrplan/events/11319.html
















Open Activity Trackers for Research (froscon2020)
Aug 22 2020 60 mins  
Activity trackers are used in a wide range of research, from movement science to psychiatry, from criminology to rehabilitation science. In this talk, we will outline the requirements for activity trackers to be used as research devices. Legal and design aspects will be highlighted as well as the view from data science and field research. We will show how an open source alternative to the currently used devices is a ( is the only?) way forward. Activity trackers, such as fitbits are widely used amongst researchers to collect physiological and behavioral data in lab settings as well as in natural settings. In this talk, we will focus on data collection in natural settings and first outline the requirements a research device has to fulfill. More specifically, we will highlight the data privacy and protection aspects, as well as aspects of data collection that allows not only social scientists to use the data but also data scientists to learn from the collected data. In the second half of the talk, we will first present the platform we developed to collect data with a Samsung customer grade fitness tracker and then suggest an open source and open hardware solution to overcome the obstacles that researchers currently face. The first design decisions to create a community lead platform are presented and the design process highlighted. In the last part of the talk, the audience is invited to contribute with feedback in a structured manner, to make the next steps towards a modular and open Fitnesstracker for research purposes. The work on the Samsung platform is done in cooperation with Peter Bosch, Lieuwe Rooijakkers and Frederick van der Meulen (all CS students at Leiden University). The work on the process design has been done together with Assia Kraan (Hogeschool Amsterdam), Ricarda Proppert (Leiden University) and Klodiana-Daphne Tona (Leiden University and Medical Center). about this event: https://programm.froscon.de/2020/events/2591.html








Smartes Smart Home mit Home Assistant (froscon2020)
Aug 22 2020 50 mins  
Smart Home muss nicht kompliziert sein. Mit Home Assistant steht eine einfache und auch für Einsteiger nutzbare Open-Source-Lösung für das Smart Home zur Verfügung. Home Assistant ist auch in der Lage eine der zentralen Herausforderungen der heutigen Smart-Home-Systeme zu lösen: die Verknüpfung von Geräten verschiedener Hersteller und die Nutzung von Automatisierungen über verschiedene Ökosysteme hinweg. Smart Home muss nicht kompliziert sein. Mit Home Assistant steht eine einfache und auch für Einsteiger nutzbare Open-Source-Lösung für das Smart Home zur Verfügung. Home Assistant ist auch in der Lage eine der zentralen Herausforderungen der heutigen Smart-Home-Systeme zu lösen: die Verknüpfung von Geräten verschiedener Hersteller und die Nutzung von Automatisierungen über verschiedene Ökosysteme hinweg. Ein weiteres Problem ist die von vielen Herstellern geforderte Bindung an deren Cloud-Angebote und die damit verbundene fehlende Offline-Funktionalität. Ist das Netz weg, funktioniert das Smart-Home nur noch begrenzt oder gar nicht mehr. Home Assistant bietet hier ebenfalls einen einfachen und flexiblen Weg an, der nebenbei auch die Datenschutzproblematik der Herstellerclouds löst. Der Vortrag zeigt die aktuelle Situation im Smart-Home-Bereich und nimmt die Zuschauer Schritt für Schritt und mit konkreten Beispielen an die Hand hin zu einem flexiblem, unabhängigen und offline arbeitenden Smart-Home mit einfacher Oberfläche und flexiblen Ausbaumöglichkeiten. Wir gehen dabei nicht nur auf die Grundlagen und die ersten Schritte ein, sondern betrachten auch Möglichkeiten zur direkten Anbindung von Zigbee-Geräten wie beispielsweise Philips Hue LED-Lampen und anderen Equipment. Anhand von Live-Demos werden Beispiele und konkrete Szenarien für den täglichen Einsatz von Smart Home transparent und greifbar gemacht. about this event: https://programm.froscon.de/2020/events/2595.html



InfluxDB – eine Einführung (froscon2020)
Aug 23 2020 67 mins  
Viele Daten, wie sie z. B. im IoT-Umfeld (Internet of Things) anfallen, sind Sensor- und Zustandswerte über die Zeit. Natürlich können solche Zeitreihen in herkömmlichen SQL-Datenbanken abgelegt werden, aber seit einigen Jahren gibt es für solche Anwendungsszenarien spezielle Datenbankmanagementsysteme (DBMS). InfluxDB ist einer der Vertreter dieser Zeitreihen-DBMS, welcher sehr weit verbreitet ist. Im Rahmen dieses Vortrages wird InfluxDB, auch im Vergleich zu den „herkömmlichen“ DBMS, anhand konkreter Beispiele vorgestellt. Ein kurzer Ausflug zu Grafana und Telegraf runden den Vortrag ab. Viele Daten, die z.B. im IoT-Umfeld (Internet of Things) anfallen, sind Sensor-, Zustandswerte o.ä. die zu einem definierten Zeitpunkt ermittelt werden. Um Auswertungen, Statistiken u.ä. anzufertigen, oder auch nur den historischen Verlauf dieser Werte zu dokumentieren, landen sie häufig in Datenbanken. Bei einer großen Menge solcher Sensor- und Zustandsdaten, sollte das verwendete Datenbankmanagementsystem (DBMS) komfortabel und performant agieren können. Die typischen Vertreter, klassischerweise SQL-Datenbanken, sind dazu ohne weiteres in der Lage. Aber hat jemand schon mal eine SQL-Query bauen müssen, die z.B. folgendes ausgeben soll: „...den Verlauf der Luftdrucktendenz, der im Minutentakt abgelegten und im 5-Minutenraster zu mittelnden Luftdruckwerte, in Bezug auf dem ebenfalls zu mittelnden Wert von vor 3 Stunden, für den Zeitraum der letzten 24 Stunden...“? Spätestens ab da kann es unübersichtlich werden und man fragt sich, ob es nicht etwas einfacher geht? ...ja, natürlich, seit einigen Jahren gibt es für solche Anwendungsszenarien spezialisierte Zeitreihen-Datenbanksysteme! Ein weit verbreiteter Vertreter ist das DBMS InfluxDB. Die Open Source Software wird im Rahmen dieses Vortrages vorgestellt. Ziel ist es, den Begriff „Zeitreihen-DBMS“ zu verstehen. Für ein konkretes Anwendungsszenario soll die Arbeit mit InfluxDB erklärt werden. Letztendlich sollen die erarbeiteten Lösungen einer vergleichbaren Umsetzung mit Hilfe eines „klassischen“ DBMS gegenübergestellt werden. Für den Referenten ist (war) die Vorbereitung zu diesem Vortrag, ein Experiment. Es soll(te) ergründet werden, ob die, bei den eigenen Wetterdatenaufzeichnungen, anfallenden Massendaten, in einer InfluxDB besser aufgehoben sind. Da dabei ein Hauptfokus auf die spätere Visualisierung der Daten liegt, erfolgt abschließend auch ein Ausflug zu Grafana und Telegraf. about this event: https://programm.froscon.de/2020/events/2579.html




Gruppendynamik, Datenschutz und FOSS (froscon2020)
Aug 22 2020 93 mins  
In diesem Talk aus der Praxis für die Praxis beleuchten wir drei Perspektiven der gesellschaftlichen und digitalen Veränderungen unter dem Coronavirus: Wie verändert sich das Leben für Arbeitnehmer, für die Wissenschaft und Forschung sowie in der schulischen Bildung. Wir wollen uns gemeinsam Zeit nehmen der Gruppendynamik nachzuspüren, die die Verwendung von FOSS in all diesen Bereichen deutlich zurückgeworfen hat und die Perspektiven und Möglichkeiten diskutieren, die sich aus dieser Situation ergeben. Durch die Entwicklung des Coronavirus wurde unsere Gesellschaft in eine Situation gezwungen, die es vorher so noch nicht gab. Dies hat starke Auswirkungen auf den Einsatz und die Verwendung von FOSS in gesellschaftlich relevanten Bereichen wir Arbeit, Bildung und Forschung. In diesem Talk beleuchten wir drei Perspektiven der gesellschaftlichen und digitalen Veränderungen unter dem Coronavirus: Wie verändert sich das Leben für Arbeitnehmer, für die Wissenschaft und in der schulischen Bildung. Wir wollen uns Zeit nehmen mit vielen Beispielen und Beiträgen aus verschiedenen Perspektiven, u.a. aus dem Bildungsbereich und der biomedizinischen Forschung der Gruppendynamik nachzuspüren, die die Verwendung von FOSS in all diesen Bereichen deutlich zurückgeworfen hat und die Perspektiven und Möglichkeiten diskutieren, die sich aus dieser Situation ergeben. Wir finden uns auf einmal in einer Situation wieder, für die wir noch wesentlich mehr gesellschaftlichen Konsens und noch wesentlich mehr technische Überlegungen und Konzepte gebraucht hätten. Interessanterweise hätten wir diese Entwicklungen aber auch schon lange kommen sehen können. FOSS wurde zwar in den letzten Monaten aus vielen Bereichen des täglichen Arbeitens verdrängt. Die aktuelle Situation ermöglicht aber auch endlich lange nötige Rekurse und wir wollen mit einem positiven Ausblick schließen. about this event: https://programm.froscon.de/2020/events/2574.html




First hand experience: How Nextcloud stayed productive during COVID-19 and how others did the same. (froscon2020)
Aug 23 2020 70 mins  
We're all now experiencing that remote working and virtual conferencing are important tools to stay connected. Not just in current circumstances but also in the wider future. This talk gives an inside look at how Nextcloud GmbH works together with the Nextcloud community-building Nextcloud. We're all now experiencing that remote working and virtual conferencing are important tools to stay connected. Not just in current circumstances but also in the wider future. That's why it's important to offer an easy-to-use, efficient, and quick replacement. Nextcloud is a platform for complete online collaboration and communication and can help to quickly adapt and stay connected. Nextcloud is built by Nextcloud GmbH that has employees in home-offices in 11 countries and the Nextcloud Community which is spread all over the world.This talk gives an inside look at how Nextcloud GmbH works together with the Nextcloud community-building Nextcloud. It covers different communication channels that work for synchronous and asynchronous communication, how coordination in distributed teams works, and how good and efficient collaboration around documents is possible.Additionally but also very important to share, this talk covers some of the challenges and solutions on how to successfully work across different countries, timezones, languages, and cultures. about this event: https://programm.froscon.de/2020/events/2557.html

Real-Time Analytik mit Apache Ignite (froscon2020)
Aug 22 2020 53 mins  
Berichtswesen klingt langweilig... bis man es mit der richtigen Technologie würzt. Kafka, Cassandra, und dazwischen Ignite als In-Memory-Computing-Plattform. Mit diesen Zutaten aus dem Apache-Universum wird jedes Projekt spannend. Vor drei Jahren haben wir bei Capgemini ein Projekt für die Entwicklung einer Individualsoftware begonnen, für das sich unser Kunde vorrangig die Nutzung von Open Source-Komponenten als Bestandteil der fertigen Lösung gewünscht hat. Die Anforderungen des Projekts waren ambitioniert. Für das Analytik-System, das neben dem klassischen Berichtswesen auch eine Echtzeitdarstellung des aktuellen Zustands sowohl der technischen Systeme als auch der fachlichen Abläufe liefern sollte, erhielten wir ein Mengengerüst, das wir weder einem klassischen RDBMS noch der uns angebotenen Alternative Apache Cassandra zutrauten. So kamen wir zu der Entscheidung, dass wir eine In-Memory-Plattform brauchten. In der Open Source-Welt wurden wir fündig: Apache Ignite wurde die Basis unserer Analytik-Anwendung, und über zwei Jahre lieferten sich unsere Anforderungen einen Wettlauf mit den Features, die Ignite mit jeder Version dazu bekam. Heute sind die ersten Features seit zwei Jahren in Produktion, und wir haben uns wieder vom Ritt auf der Rasierklinge erholt. Dieser Vortrag ist für alle, die sich ihren eigenen High-Performance In-Memory-Cluster wünschen. about this event: https://programm.froscon.de/2020/events/2596.html



Open Source und die EU (froscon2020)
Aug 23 2020 28 mins  
Im vergangenen Jahr 2019 hat die Europäische Kommission im Rahmen des EU-FOSSA (Free and Open Source Software Auditing) Projektes unter anderem drei Hackathons für Open Source-Projekte veranstaltet sowie Bug Bounties für Sicherheitslücken in Open Source-Software ausgelobt. Warum interessiert sich die Europäische Union für Open Source? Und was bedeutet die Open Source-Arbeit eigentlich finanziell und gesundheitlich für die Entwicklerinnen und Entwickler, die tagtäglich dafür sorgen, dass es beispielsweise ein funktionierendes Ökosystem für PHP gibt? In diesem Vortrag berichtet Sebastian Bergmann von seiner Teilnahme am EU-FOSSA Cyber Security Hackathon sowie der Open Source Beyond 2020 Konferenz. Im vergangenen Jahr 2019 hat die Europäische Kommission im Rahmen des EU-FOSSA (Free and Open Source Software Auditing) Projektes unter anderem drei Hackathons für Open Source-Projekte veranstaltet sowie Bug Bounties für Sicherheitslücken in Open Source-Software ausgelobt. Warum interessiert sich die Europäische Union für Open Source? Und was bedeutet die Open Source-Arbeit eigentlich finanziell und gesundheitlich für die Entwicklerinnen und Entwickler, die tagtäglich dafür sorgen, dass es beispielsweise ein funktionierendes Ökosystem für PHP gibt? In diesem Vortrag berichtet Sebastian Bergmann von seiner Teilnahme am EU-FOSSA Cyber Security Hackathon sowie der Open Source Beyond 2020 Konferenz. about this event: https://programm.froscon.de/2020/events/2545.html

Die Kernwerte der Software Freiheit (froscon2020)
Aug 23 2020 47 mins  
Der Vortrag will ein besseres Verständnis dafür schaffen, worum es bei Freier Software geht; sowohl für Menschen, die neu in das Thema einsteigen, als auch für Menschen, die schon seit langem dazu beitragen. Müssen wir, wenn wir Freie Software entwickeln dies mit einem offenen Entwicklungsmodell machen oder einem bestimmten Geschäftsmodell folgen? Müssen wir wenn wir für Freie Software sind Sozialismus, Kapitalismus oder Liberalismus gut finden; oder uns auf bestimmte Positionen zum Datenschutz, zu Nachrichtendiensten und Militär, zur Klimakatastrophe, Kernkraft, Impfen oder Tierrechten einigen? Oder müssen wir diesbezüglich mehr Respekt und Vielfalt zulassen? Ich werde die historischen Grundwerte der Freien-Software-Bewegung erklären: 1) Dass alle, unabhängig vom Hintergrund, die Software für jeden Zweck ohne Diskriminierung verwenden dürfen. 2) Dass alle verstehen dürfen, wie Software funktioniert. 3) Dass alle die Software immer verbreiten dürfen, entweder um einem anderen Menschen zu helfen oder um Geld zu verdienen. 4) Und dass keine Person, Organisation oder Regierung gezwungen werden sollte, ihr Verhalten wegen der Software zu ändern, sondern die Software verändern kann und dadurch die Software für sich und andere verbessern kann. Im Laufe der Zeit gab es viele Versuche, andere Werte hinzuzufügen. Bisher sind diese immer gescheitert. Der Vortrag soll dazu beitragen, besser zu verstehen, warum das der Fall ist. about this event: https://programm.froscon.de/2020/events/2571.html



Detangling remote interactions with neuroscience (froscon2020)
Aug 23 2020 59 mins  
In this talk we look to neuroscience to unpack unique challenges present in remote meeting interactions. Together we will look at a few research studies that can help explain what is happening in our brains when we interact with people in a digital space. With this deeper understanding, we will also share some practical ideas you, as a meeting organiser or facilitator, can use to shift your meetings in healthier directions. For many people, remote meetings feel very different to in person interactions. You might have experienced in remote meetings that people seem distracted or tense, there’s less engagement and the tone maybe feels a little colder. These conditions impact the quality of thinking within the session and as a result, the outcomes that are achieved. Why are remote meetings so difficult? And what can we do about it? In this workshop we will cover theory and share some practical ideas to overcome potential challenges which might be faced. No prior experience is needed for this talk. We will use some of our own stories to make remote working accessible to those who do not have deep experience in this area. We will explain neuroscientific concepts in a relatable way with many examples to help people navigate. This session is for anyone who cares about creating conditions for quality thinking in distributed teams. about this event: https://programm.froscon.de/2020/events/2555.html


God does not play dice! (froscon2020)
Aug 23 2020 56 mins  
a fantastic journey into the world of the smallest particles and its use to implement a tap-proof connection Only the content counts - the substance is irrelevant. (Is teleportation possible?) "There are more things in heaven and earth than are dreamt of in your philosophy, Horatio. (A journey into the unimaginable world of the quantum) The Heisenberg uncertainty principle (Who measures manure even if he measures manure.) Niels Bohr's atomic model (The world as we thought we knew it) And now please turn off your mind! Unbelievable statements about the world of smallest Particle. Does teleportation also transfer information? The phenomenon of Quantum entanglement Flying optical cats (The thought experiment after Erwin Schrödinger) The Double-Slit Experiment Turn One into Two The fantastic properties of the Qbits change of state by Measurement The tunnel effect Einstein was wrong! The wave theory of light Quantum cryptography what is it? The Shor Algorithm entangled states The quantum Fourier transform The BB84 protocol for tap-proof key exchange Polarization and Spin The key exchange with Qbits and why it is practically impossible to eavesdrop Problems with data transmission and possible solutions About quantum computers and their significance for cryptography Myths and reality Are quantum computers always this fast? A look into the future Post-quantum cryptography - where is the journey going? about this event: https://programm.froscon.de/2020/events/2546.html



DMX: Grafische Modellierung vernetzter Informationen für kollaboratives Wissensmanagement (froscon2020)
Aug 22 2020 49 mins  
DMX ist eine freie Software-Plattform für gemeinschaftliches Wissensmanagement. Sie wird speziell für die kollaborative Erstellung, Bearbeitung und Erkundung vernetzter Informationen entwickelt. Dabei steht nicht künstliche Intelligenz, sondern die Unterstützung menschlicher kognitiver Fähigkeiten im Mittelpunkt, nämlich das Assoziieren zusammengehöriger, kontextübergreifender Informationen. Die Weboberfläche ermöglicht sowohl die grafische Definition von Datenbankfeldern und deren Verknüpfungen als auch das freie Assoziieren von Inhalten. DMX (bis 2018 DeepaMehta) ist eine freie Software-Plattform für gemeinschaftliches Wissensmanagement. Sie wird speziell für die kollaborative Erstellung, Bearbeitung und Erkundung vernetzter Informationen entwickelt. Dabei steht nicht künstliche Intelligenz, sondern die Unterstützung menschlicher kognitiver Fähigkeiten im Mittelpunkt, nämlich das Assoziieren zusammengehöriger, kontextübergreifender Informationen. Die Weboberfläche ermöglicht sowohl die grafische Definition von Datenbankfeldern und deren Verknüpfungen als auch das freie Assoziieren von Inhalten. Auf Topicmaps können Benutzer*innen individuelle Themen-Karten zur situativen Gliederung von Inhalten und Arbeitskontexten erstellen. Im Vortrag wird gezeigt, wie man mit DMX im Webinterface selbst ein Datenmodell baut und es dann mit Inhalt befüllt. Im Anschluss wird kurz das Plugin Template vorgestellt, das den optionalen Einstieg in die Entwicklung erleichtert. Es sind keine besonderen Vorkenntnisse nötig. Der Vortrag richtet sich ausdrücklich nicht nur an Menschen mit Programmierkenntnissen. about this event: https://programm.froscon.de/2020/events/2588.html









Remote control? How to organize work in Corona times and what we can learn from Open Source communities. (froscon2020)
Aug 23 2020 54 mins  
Open Source communities organize themselves for remote, distributed, and asynchronous work. Companies predominantly prefer colocated and synchronous collaboration. Keeping offices closed due to Corona, provides a challenge - and opportunity - to combine best of both worlds. Open Source communities naturally organize themselves for remote, distributed, and asynchronous work. Companies, on the other hand, predominantly prefer colocated and synchronous collaboration. Keeping offices closed due to Corona, provides a challenge - and opportunity - to combine best of both worlds. At eyeo, we create the Open Source software Adblock Plus. Organizing work as an Open Source community is deeply ingrained in our company's DNA. Still, as a company, this is not necessarily the best way to collaborate. In the last years we became more agile, more synchronous, and more team-focused. We try to balance both worlds. With nearly half of our staff working from home, distributed world-wide, we continuously improve remote collaboration. At the same time, we strongly invest in frequent get-togethers and colocated team building. With Coronavirus hitting Europe, we were very early to close all offices and ban all business travel. With our rich experience in organizing remote work, the crisis hit us by far less than others. My talk will cover our best practices in combining remote work with an agile mindset, and how we addressed Corona's challenges regarding international collaboration during crisis, supporting staff tasked with homeschooling and child care, and overcoming mental health issues. --- Jutta Horstmann is eyeo's Chief Operating Officer (COO). In this role she is responsible for eyeo's continuous improvement as an organization. She leads the company's Coronavirus Task Force and is responsible for its crisis management. about this event: https://programm.froscon.de/2020/events/2600.html

How Convenience Is Killing Open Standards (froscon2020)
Aug 22 2020 43 mins  
All the technical diversity we enjoy in our industry is the result of internal evangelism 20 yers ago. Now all three major cloud providers have been pushing their serverless solutions to lure customers into a new form of vendor lock-in. I think it is time, to remind ourselves about Open Standards. All the technical freedom and diversity we enjoy in our industry is the result of internal, grass root evangelism. Over the last couple of decades, thought leaders have strongly opposed manufacturer-centric strategies and argued the case of Open Source and Open Standards. This ultimately led to the success of Linux and Open Source we have today. But now, two decades later, the IT industry is in upheaval again: All three major cloud providers have been pushing their serverless solutions in order to lure customers into a new form of vendor lock-in. And they succeeded: The number of serverless deployments has already surpassed those of container based ones. “So this is how liberty dies … with thunderous applause” I think there is no time to waste, to remind ourselves about Open Standards, their value to our industry, and why it is worth to fight for them to survive. Open Standards go beyond the boundaries of development and operation. They are the foundation of a barrier free interoperability and independent communications. The lecture aims to inspire the connection between both worlds and paradigms for a modern and flexible application infrastructure. about this event: https://programm.froscon.de/2020/events/2554.html



FaaS or not to FaaS? Visible and invisible benefits of the Serverless paradigma (froscon2020)
Aug 22 2020 52 mins  
I’ll draw a complete picture of the total cost of ownership in serverless applications (including visible and invisible costs) and present a decision-making list for determining if and whether to rely on serverless paradigm in your project. I’ll also discuss current challenges adopting serverless When we talk about prices, we often only talk about Lambda costs. In our applications, however, we rarely use only Lambda. Usually we have other building blocks like API Gateway, data sources like SNS, SQS or Kinesis. We also store our data either in S3 or in serverless databases like DynamoDB or recently in Aurora Serverless. All of these AWS services have their own pricing models to look out for. In this talk, we will draw a complete picture of the total cost of ownership in serverless applications and present a decision-making list for determining if and whether to rely on serverless paradigm in your project. In doing so, we look at the cost aspects as well as other aspects such as understanding application lifecycle, software architecture, platform limitations, organizational knowledge and plattform and tooling maturity. We will also discuss current challenges adopting serverless such as lack of high latency ephemeral storage, lack of durable storage, unsufficient network performance and missing security features. about this event: https://programm.froscon.de/2020/events/2549.html



Analyzing the localness of OSM data (sotm2020)
Jul 05 2020 32 mins  
The “localness” of data is often described as a major factor for the authenticity of (geo-) information in OpenStreetMap. However, the exact meaning and relevance of “localness” remain controversial. We compare proposals made for the “measurement”, i.e. for the empirical operationalization, of “localness”. Based on this, two convincing operationalizations were selected and implemented in order to contrast regional differences in “localness”. Our analysis allows the identification of regions in which exceptionally high proportions of data are mapped remotely – mostly regions in the Global South. Bearing this in mind, we discuss how “localness” is negotiated in the OSM community. A frequently reproduced mantra of the debate on Volunteered Geographic Information (VGI) can be summarized by the term ”localness”: It emphasizes the actual or at least desired local production of geographical information. Through new tools in Web 2.0 it is assumed that now a large number of “ordinary” people “on the ground” can generate knowledge about their everyday environment. This postulated “local expertise” operates as a claim to truth of VGI. In contrast to “conventional” geodata, whose truth claim is more likely to be based on professional and technical expertise, VGI is often legitimized by its authenticity due to its “localness” (Goodchild 2007, 220 or Elwood et al. 2012, 584). In fact, relatively little is known about how “local” VGI data actually are. Although “localness” is accepted as a central quality feature of VGI (Barron et al. 2014), it is hardly taken into account in approaches to measuring the quality of VGI (Senaratne et al. 2016, 161). However, we compare existing methods for measuring “localness”, with particular emphasis on the different geographical scales on which they work. Additonally, considering that the importance of “localness” is controversially discussed in the OSM community, further research is conducted in OSM wikis, blogs, group chats, at conferences and with interviews. The key interest is to explore the significance and relevance of “localness”, and simultaneously investigate the implications of an interference of local mappers with remote mappers. The presented research follows a mixed methods approach. Firstly, a synopsis of all methods that have been already used to measure “localness” is implemented. The effort to determine where OSM users have their origin is necessary because this information is not saved within the OSM user data or cannot be read simply from IP addresses (Quinn 2016, 6). In addition, the methods aim to find out where the density of local information is high. Many of the used methods work best at a regional scale, only some function for global data. Since we are most interested in the latter, we have implemented two methods that are possible on a global scale. Using the first OSM changeset of a user, we determine the density of local mappers across the world (Neis 2013). Furthermore, the sum of all used OSM keys or the sum of the different OSM keys in an area per number of OSM elements can be used to identify areas with a higher density of local content. Zielstra et al. (2014, 1227f) have already used this method on a regional level for selected mappers; with Zipf et al. (2019) we are able to calculate this on a global scale. The second part of the study consists of qualitative interviews and analysis of documents such as OSM wikis, blog pages and group chats. After a preliminary research, the aim is to dive into exemplary local communities in which conflicts between local and non-local mappers become evident. For instance, the contested meaning of localness for humanitarian mapping between local map guards and international aid organisations will be further investigated. In addition, the emerging issue of the relationship between maps produced with the aid of “artificial intelligence” and local mapping communities will be explored. Frequently, “localness” is considered an important indicator for the authenticity of data in OSM. The research carried out should therefore answer the question whether locally produced data in OSM are “better” than data not produced locally. Moreover, we also approach conflicts between local and external mappers by examining debates and discussions within the OSM community. This research thus helps to gain a better understanding of the conflicts that exist within OSM and between different user groups within the OSM community. References Barron, C., Neis, P., & Zipf, A. (2014). A Comprehensive Framework for Intrinsic OpenStreetMap Quality Analysis. Transactions in GIS 18(6), 877–895. Goodchild, M.F. (2007). Citizens as sensors. The world of volunteered geography. GeoJournal 69(4), 211–221. Elwood, S.A., Goodchild, M.F., & Sui, D.Z. (2012). Researching volunteered geographic information: Spatial data, geographic research, and new social practice. Annals of the American Association of Geographers 102(3), 571–590. Neis, P. (2013). The OpenStreetMap Contributors Map aka Who’s around me? Available online: http://neis-one.org/2013/01/oooc/ (accessed on 05 March 2020). Quinn, S. (2016). A Geolinguistic Approach for Comprehending Local Influence in OpenStreetMap. Cartographica, 51(2), 67–83. Senaratne, H. et al. (2016). A review of volunteered geographic information quality assessment methods. International Journal of Geographical Information Science 31(1), 139–167. Zielstra, D.W.G. et al. (2014). Areal delineation of home regions from contribution and editing patterns in OpenStreetMap. IJGI 3(4), 1211–1233. Zipf, A. et al. (2019). OpenStreetMap History Data Analytics Platform. Available online: https://heigit.org/big-spatial-data-analytics-en/ohsome/ (accessed on 28 February 2020). about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/BUYCSC/

Curious Cases of Corporations in OpenStreetMap (sotm2020)
Jul 05 2020 45 mins  
Today, nearly 17% of the global road network was last edited by a corporate data-team member. We further investigate unique editing patterns among three corporations that have specific, localized impacts on the map. **Introduction** OpenStreetMap (OSM), the largest crowdsourced geographic database has garnered interest from corporations over the last four years. Today, major corporations including Apple, Facebook, and Microsoft have dedicated teams contributing to OSM. More than 2,300 OSM editors are associated with corporate data teams, up from approximately 1,000 in 2019 [1]. As of March 2020, nearly 17% of the global road network (measured per kilometer) was most recently edited by a corporate data-team member. Each corporation edits according to their own agenda; displaying unique patterns of edits with respect to types of features edited, mode (manual, import, or machine assisted), and locations and volume of edits. **Aim** We investigate the unique editing patterns associated with three corporations: Grab, Digital Egypt, and Tesla, the latter two’s editing activity has never previously been quantified. Differing from other corporations with high volumes of global editing [1], these corporations exhibit uniquely specific patterns. **Methodology** We use a combination of OSM data processing pipelines including tile-reduce, osm-qa-tiles, and osm-interaction tilesets [2] to extract and quantify the edits associated with the corporations. **Results and Discussion** **Grab** is a Singapore-based company active in South-East Asia offering ride-hailing transport food delivery, and payment services. Grab is actively editing OSM data since 2018 and has thus far edited 1.6M features. Grab’s focus on transport related services implies that a navigable road network is a priority. However, topology and navigation restrictions are difficult to encode. Grab dedicates efforts to improve road navigability. In Singapore, Grab has edited over 100,000 turn restrictions, comprising 95% of all turn restrictions in Singapore (and 7% of all turn restrictions globally). This represents a highly focused effort put in by a corporation in a specific place to build infrastructure needed to support their business. Overall, Grab’s efforts of improving data and building a community of editors in South-East Asia is beneficial for the OSM ecosystem. **Digital Egypt (DE)** aims to produce detailed and accurate GIS and Mapping data in Egypt, Middle East and Africa. Active in a part of the world with sparse geographic data coverage, Digital Egypt’s team of 24 mappers works to improve the accuracy of OSM, specifically as it relates to improving address information for improved geocoding in Egypt [3]. As of March 2020, DE has edited more than 2M features, more than 1.7M of these edits involve objects with address tags (e.g. addr:housenumber). These edits comprise 94% of the objects in Egypt that have an address tag. Similar to Grab, DE’s contributions improve the usability of OSM data for everyone. Unlike Grab, DE does not operate services built on top of this data infrastructure. Their hyperlocal focus and dedication to improving data for a country with a dearth of spatial data distinguishes them from other corporations using map data in a product. **Tesla**—an American manufacturer of electric cars—was revealed to be using OSM parking aisle information for their vehicle’s self-driving “summon” feature in a blog post in November 2019 [4]. To function properly, the summon feature requires detailed maps of parking aisles within larger parking lots. These data were relatively sparse, as their utility to the overall map is minimal compared to the actual road network. However, the number of parking aisles added to OSM in North America has increased by approximately 71% in 2018-2020 from an average of 322 ways per day in 2016-2018. While there is no official Tesla data-team that is mapping these features, in the days following the blog post, the number of new OSM editors adding parking aisles within their first day of editing jumped from an average of 1.5 to 10. A single blog post inspired dozens of Tesla fans to join OSM and add new parking aisles to the map, thereby mapping a specific feature type for a narrow purpose. These Tesla owners represent a new generation of hobby and “craft mappers” in OSM. Unlike traditional ‘craft-mappers’ considered to altruistically contribute map data about specific features, the Tesla mappers create data intended to be consumed by a corporation to enhance the experience for a select group of motorists. If looking to categorize these new mappers into prior community labels, their mapping practices have more in common with a “traditional craft-mapper” than a paid, corporate mapper. Grab, Digital Egypt, and Tesla represent three distinct cases of corporations consuming, contributing, and driving further interest in OSM. **References** https://docs.google.com/document/d/183aN5Ph2KGuR6iBE_i8j-mL8h2saH3EYU65WMrZWNsw/edit?usp=sharing about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/SPRQVZ/


MAPBEKS: Mapping of HIV Facilities and LGBT spaces in the Philippines on OpenStreetMap (sotm2020)
Jul 05 2020 33 mins  
The Philippines is to be considered one of the most-LGBT friendly countries in the World. In 2019, it was able to host the largest pride celebration in Asia. Amidst all this, crimes against LGBTQ+, discrimination, and bullying is still rampant in the country. The Sexual Orientation and Gender Identity Expression (SOGIE) Bill is still continuously being delayed. It is intended to prevent various economic and public accommodation-related acts of discrimination against people based on their sexual orientation, gender identity or expression. Despite of being tolerated, the LGBT community is still far from being accepted by society. Evidence of our community have been written on books, told in stories, presented in movies and yet the community has not left its mark in data. Spreadsheets, research, books have identified spaces where community activities happen but this are not shown on any map online. Our spaces are mere descriptions or addresses on tables and paragraphs. This talk would be about how we would be more represented on OpenStreetMap so as to provide emphasis on being on the map. MapBeks is an online community of mapping volunteers that advocates for diversity inclusion and representation focused specifically for Lesbians, Gays, Bisexuals, Transgendered, Queer, Inter-sexed, etc. (LGBTQI+) on OpenStreetMap. As part of its advocacy is to map-out and locate all HIV facilities (testing, counselling, and treatment hubs) in the Philippines. It has researched, collated, and validated various sources to build an updated and comprehensive online database with location data. Currently, it has identified 650 HIV testing and counselling centers all over the Philippines and already mapped out 140 (20%) of the facilities on OSM using MapContrib.xyz. We would like to share our experiences in building our small community of LGTQ+ advocates, and digital volunteers. We hope we can inspire the world with our endeavour to make change from what little we have. The talk will discuss the following: 1. The STATUS QUO- LGBT places are not that much represented on OSM/ tagging/ lack of data 2. How was Map Beks able to start up as a local community and how it was able to reach out to the growing LGBT and PLHIV community 3. Its current projects and advocacies 4. Its plans for the future about this event: https://2020.stateofthemap.org/sessions/L3RTUK/


What to do when local citizens do not consent? A discussion on how to navigate difficult field scenarios that involve local communities. (sotm2020)
Jul 05 2020 42 mins  
Most field program managers have their go-to field preparation checklist - this often includes a data model, their preferred data collection tools, field survey timeline, to name a few. We are often cautioned about the importance of community entry, and it is right, you will not be able to just enter the community and start mapping as people will get curious, ask questions and possibly become suspicious or hesitant to accept your data collection activities. At HOT, we employe participatory mapping methods and encourage local people to map their communities. However, sometimes with even all the correct steps followed, your activities can be hindered due to factors outside of your control. In this session, we will explore one of HOT’s field mapping projects implemented in Kampala in collaboration with the Kampala Capital City Authority that aimed to map community-level flood risk in a local suburb along the Nakamiro Channel catchment area. Despite all the correct steps taken, community entry in a specific jurisdiction felt impossible and field mapping could not be carried out. In this session, our aim is to first discuss what went wrong and how our field team approached this situation and later invite participants/attendees to share similar challenges experienced in the field and how these situations were overcome or addressed. Most field program managers have their go-to field preparation checklist - this often includes a data model, their preferred data collection tools, field survey timeline, to name a few. We are often cautioned about the importance of community entry, and it is right, you will not be able to just enter the community and start mapping as people will get curious, ask questions and possibly become suspicious or hesitant to accept your data collection activities. At HOT, we employe participatory mapping methods and encourage local people to map their communities. However, sometimes with even all the correct steps followed, your activities can be hindered due to factors outside of your control. In this session, we will explore one of HOT’s field mapping projects implemented in Kampala in collaboration with the Kampala Capital City Authority that aimed to map community-level flood risk in a local suburb along the Nakamiro Channel catchment area. Despite all the correct steps taken, community entry in a specific jurisdiction felt impossible and field mapping could not be carried out. In this session, our aim is to first discuss what went wrong and how our field team approached this situation and later invite participants/attendees to share similar challenges experienced in the field and how these situations were overcome or addressed. about this event: https://2020.stateofthemap.org/sessions/SAEWDP/

Lightning Talks II (sotm2020)
Jul 05 2020 54 mins  
Lightning Talk session ## [Divide and map. Now.](https://wiki.openstreetmap.org/wiki/Divide_and_map._Now.) *Jiri Vlasak* - [Website](https://www.damn-project.org/), [Slides](https://qeef.gitlab.io/talks/damn-lightning-talk/) The damn project helps mappers by dividing some big area into smaller squares that a human can map. ## Mapping Historically Black Colleges and Universities in OSM *Harrison Cole* Historically black colleges and universities (HBCUs) are schools that were established exclusively for Black Americans prior to 1964. As of June 19th, 2020, their campuses are disproportionately undermapped in OSM relative to institutions with predominately white student populations. After putting out the call to map these campuses, volunteers have come together to submit thousands of edits and ensure that the campuses are represented properly. In this talk, I give a brief overview of how far the effort has come, and what still needs to be done. ## DDD123-OSM: 2D and 3D render toolchain *Jose J. Montes* Introducing the toolset we are building to generate 3D models from OpenStreetMap data, used in our under-development "racing in your own city" game, and sharing some pictures and videos. ## OSGeo + OSM *Enock Seth Nyamador* - [Slides](https://enockseth.github.io/sotm-2020-osgeo-plus-osm-lightning-talk-enyamador/) Quick introduction to Open Source Geospatial Foundation (OSGeo) and highlighting projects for working with OSM Data. ## Tasking Manager 4 Tour *Wille Marcel* The new version of Tasking Manager, released on April 2020, has a new completely redesigned interface. This talk is a guided tour on the main parts of Tasking Manager 4. ## Uses of Mapping for Community Care During the Pandemic *Andi Tabinas* How were we able to use maps for community care during the COVID-19 situation in the Philippines? Through this lightning talk, I would like to share about how our volunteer organization, Mental Health AWHEREness, has been using maps and OSM data for community care in the Philippines. ## OpenStreetMap Data Pacific *John Bryant* Interest in open geospatial is growing in Pacific Island countries, where budgets and data availability are big problems, but the OpenStreetMap community in the region is still small. This project aims to introduce Pacific "geo" people to OSM by providing a weekly extract of 14 countries in a GIS-friendly format, bundled with a QGIS project and enhanced with some basic cartography. ## Hikar.js - bringing Hikar to the web *Nick Whitelegg* Hikar is an augmented reality app which overlays OSM ways on the camera feed of an Android device, and was presented last year at SOTM Heidelberg. The past year has seen a surge of interest in the three.js and A-Frame based augmented reality library AR.js, which allows AR apps to be developed for the web. This lightning talk summarises efforts so far to port Hikar to the web using AR.js. ## [Mapathon Keralam](https://wiki.openstreetmap.org/wiki/Kerala_State_IT_Mission) *Amitha K Biju* Mapathon Keralam is being coordinated by the Kerala State IT Mission, with the concept of Let Us Make Our Map. about this event: https://2020.stateofthemap.org/sessions/QYYC9T/

Minutely Extracts: Tools for nimble editing and downloading (sotm2020)
Jul 05 2020 31 mins  
OSM is more fun and useful with quicker access to fresh data. New web services, tools and file formats enable mappers to download and use edited data within minutes. Workflows for adding data to OpenStreetMap keep getting better - but once an edit is uploaded, it can take a long time to appear on hosted map tiles or regional OSM extracts. The experience of downloading and using OpenStreetMap can be improved by quick access to fresh data - a fast feedback loop makes contributing to OSM more enjoyable! The first part of this talk covers a new web service, Minutely Extracts (protomaps.com/extracts). Mappers can download rectangular or polygon regions of the world, with changes replicated every minute from planet.openstreetmap.org. I’ll show some example workflows for using Minutely Extracts with common GIS applications such as QGIS, and new tools for conversion to formats like GeoPackage and Shapefile. The second part of this talk describes OSM Express (osmx), a new spatially indexed file format powering Minutely Extracts, that supports in-place updates. Developers needing random access to OSM objects can consider embedding osmx as a library. Near real-time editing activity visualization is one possible use case. I’ll review the technical tradeoffs between using osmx, PBFs and other popular formats. Financial Background: The software is developed as open source, under a BSD license, and funded by the author's commercial OSM-based SaaS services as well as OSM contract software development. about this event: https://2020.stateofthemap.org/sessions/JDNTHK/

Detecting informal settlements via topological analysis (sotm2020)
Jul 05 2020 39 mins  
We outline methods for a) extracting the geometry of street blocks in urban centres using OSM and remote sensing data, b) generating approximate cadastral maps of a block given contained building footprints, and c) quantifying residents’ ability to navigate within blocks through topological analysis of cadastral maps. This topological metric, termed “spatial accessibility” and denoted k = 1, 2, 3, ..., determines whether areas of a city are informal settlements, as blocks where k 2 contain cadastral parcels without direct access to formal road networks. We analysed 1 terabyte of OpenStreetMap data for 120 low and middle income (LMIC) countries. Determinations of whether a neighbourhood is underserviced depends greatly on local concerns, however topological analysis of building footprints in relation streetlevel access offers a pathway to near-universal criteria for determining whether a neighbourhood is potentially a slum or urban informal settlement. With a topological approach, it is possible to determine the number of building parcels a streetblock inhabitant must cross to access a potential services bearing street, i.e. one that enables for example access to emergency services, sanitation and piped water. Focusing on topological invariants allows us to analyse cities without respect to the specific morphology of their street network [1]. To create a global index of these under-serviced neighbourhoods, we extracted open-source data on building footprints and street networks and applied a topological analysis to each extracted street block to characterise the level of spatial accessibility. Using these techniques, we analysed 1 terabyte of OpenStreetMap (OSM) data to create an index of street block geometry, cadastral maps, and spatial accessibility calculations for 120 Low and Middle Income Countries (LIMCs) in the Global South. These results highlight the developing world’s most spatially inaccessible communities, enabling prioritisation of infrastructure investment and further study. The primary data universe for our work involves three entities: 1) administrative boundary polygons, 2) building footprint polygons, and 3) street network line-string collections. The administrative data boundaries were sourced from the Database of Global Administrative Areas, while building footprints and street networks were sourced from OSM. Since OSM does not provide direct downloads, the data under consideration was obtained from a mirror of OSM hosted by GeoFabrik. This data reflects a snapshot of OSM as of July 2019. Starting with the initial road network, the geometry of the street network can be extracted via the well-studied process of polygonization. In polygonization, the self-intersections of the street network are determined in order to define the block geometry. Most GIS software packages offer a polygonization feature (e.g. ST_MakePolygon from PostGIS). In implementation, however, we found a set-theoretic approach to be more stable and performant [2]. By buffering the one-dimensional line-strings comprising the street network with a small buffer radius, we obtain two-dimensional polygons capturing the outline of the street network. We then find the set-theoretic difference between the administrative boundary polygons and the buffered road-network polygon; this renders the negative area between the road network geometry as a collection of polygons. These negative areas are precisely the street blocks we are trying to extract. With each building’s access to the formal road network - or lack thereof - analysed, we can also provide suggestions to the local community about ways to connect each building to the existing road network while respecting existing building footprints. This process, known as re-blocking, is in general, NP-hard. In contrast to previous algorithmic re-blocking efforts involving stochastic graph search [3], we approach the problem using Steiner tree approximations to the optimal road network. To frame the universal access network as a Steiner tree problem, we segmented the building parcel boundaries to create “non-terminal” nodes at each segment boundary, and create a “terminal” node for each building parcel lacking direct street access by placing a node on the non-street parcel boundary closest to the building. We then construct a complete subgraph of all the terminal nodes, where the weight of each edge is the Euclidean distance between each pair of terminal nodes; each existing road segment has zero weight. Solving the minimum-spanning tree problem on this subgraph, and then recovering the original path segments, gives us the optimal new road network. In the short future, we hope to repeat our analysis on denser sources of data on footprints and street network data from other providers (such as private satellite imagery companies). We expect that while OpenStreetMap has good coverage in some areas, we can use data in which footprints are automatically extracted from satellite imagery to supplement areas where coverage may be lacking. Additionally, we hope to re-block more neighbourhoods and cities and investigate the connections between an urban centre’s infrastructural topology and the amount of new infrastructure needed to be built to universally connect each building to the formal road network. Finally, we expect that our generated dataset could be used to study development and health outcomes, especially around questions of tenure security and emergency service provision. about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/EYDKX3/

OSM Routing Evaluation (sotm2020)
Jul 04 2020 27 mins  
This talk will present an evaluation of different OSM routing software and its impact on the journey. Several popular OSM routing software results will be evaluated on its route-cost (distance and or time) and different modes of transportation (from walking to motor-vehicle). Additional evaluation on the ground will also evaluate which route is a good (or bad) one and what may cause this impact. There have been multiples OSM routing services that are available, from offline to online. While this situation gives people many options to choose from it may also confuse people on which service they should choose or use. This talk is an effort to evaluate these services on different modes of transportation. The evaluation is not only on the routing result but also on when the route is used in real-life scenarios. It tries to answer practical questions such as what is the routing service that provides the best result for walking? Or is it better to use Graphopper or OSRM for car navigation? Different OSM routing services will be evaluated using several start-end points and what do the results look like. How do different routing service results in shorter or longer distance/time and what may have caused it? Surely the journey in the real situation will be presented as well. While the answers highly depend on several factors (such as road tag completeness, local road rules, and time of traveling), this talk will be a good overview for the audience that wants to know more about routing services in OSM. No technical knowledge is necessary. about this event: https://2020.stateofthemap.org/sessions/MJ8ZY8/

Pedestrians First (sotm2020)
Jul 05 2020 34 mins  
Walkability is the foundation for urban life that is sustainable, inclusive, healthy, and dignified. Pedestrians First is a new open-source suite of tools for using OSM data to measure indicators of urban walkability. During this talk, we will examine the nature of walkable and unwalkable cities, we will discuss the opportunities and limitations of using OSM to measure walkability, and we will consider possible avenues for extending Pedestrians First in the future. Few modern cities are walkable. Around the globe, cities have been designed for cars rather than pedestrians, resulting in enormous costs to the environment, the economy, and even the social fabric of our communities. In the face of the climate crisis, there is an urgent need to build cities that are sustainable and inclusive. Responding to that need, the Institute for Transportation and Development Policy has released Pedestrians First, a tool that supports planners and decision-makers by using OSM to measure what matters for walkability in cities. This talk will describe what makes a city walkable, discuss the experience of using OSM to measure walkability, and explore possibilities for improving that measurement in the future. Because the experience of walking is so natural, it is easy to assume that planning walkable cities is equally simple. That is far from the case. To be walkable, a city must prioritize pedestrians not only in urban design but also in land use and transportation planning. Some factors, like sidewalk quality, matter at the small scale, the level of the street or the city block. Other factors matter at the level of the neighborhood, such as the proximity of destinations, and still others are at the level of the entire city, like the ability of a public transit system to move pedestrians from one neighborhood to another. We have found OpenStreetMap an invaluable tool in identifying and measuring the most important elements of walkability. Certain aspects of the OSM data model have been critical to the success of the project, especially its emphasis on representing connectivity, its typology of streets, and its relative uniformity around the world. However, other aspects have been challenging to work with, and prevent us from measuring other important indicators of pedestrian-friendliness. For example, it is still difficult to clearly represent the presence and quality of sidewalks in OSM and assessing the safety of street crossings remains a pressing concern. There are many opportunities to expand Pedestrians First. We are exploring possibilities that include computer vision to identify street assets, integration of traffic data, and measurement of multimodal access to opportunities. We hope to join conversations about how best to implement such approaches within the OpenStreetMap community. With offices in Brazil, China, India, Indonesia, Kenya, Mexico, and the United States, the Institute for Transportation and Development Policy has advocated for sustainable urban transport since 1985. A non-governmental organization striving for inclusive cities, ITDP is dedicated to openness of information and techniques. about this event: https://2020.stateofthemap.org/sessions/RANPLK/

Identify map problems in OSM by connectivity check (sotm2020)
Jul 05 2020 26 mins  
In an ideal map, every point is reachable to another. However, in OSM data for instance, only 98.59% of Singapore’s nodes are reachable to each other by a path. In this talk, we identify OSM map problems by checking the connectivity of the road network using strongly connected component algorithms and introduce a creative visualisation to help map ops pinpoint the fix effortlessly. Using this approach, we have fixed thousands of map problems in SEA. In an ideal map, every point is reachable to another. Like any crowd-sourced product, it is a challenging goal for OSM to be ideal because the edits are from contributors with various backgrounds. For instance, only 98.59% of Singapore’s nodes are reachable to each other. This could cause significant problems when routing from one point to another for any business use case. In June 2019, some contributor mistakenly tagged one of the five major expressways in Singapore with Access=No, which subsequently caused all the routing through the expressway to fail. In this talk, we address the issue by using strongly connected component algorithms to identify such map problems and building a creative visualisation to help map analysts pinpoint the fix effortlessly. Using this technique, we identify map errors such as two one-way roads meeting each other with opposite directions; duplicate nodes causing roads disconnected; parking lots not connected to main road network and more. The detected map errors spread everywhere on the map that motivates us to build a creative visualisation to help map analysts pinpoint the erroneous nodes/ways. Using this approach, we have fixed thousands of map problems in SEA. about this event: https://2020.stateofthemap.org/sessions/URVEBF/

Sustainability and OSM for Development (sotm2020)
Jul 04 2020 41 mins  
We have seen an explosion of OSM mapping in the last few years around maps for development and humanitarian uses, particularly in Africa. During this time it has also become clear that sustaining this essential mapping work, and keeping maps up to date, was going to be a primary concern. Building a healthy mapping ecosystem around mapping for development will not necessarily be able to follow the same model as it has in more developed countries. In this talk, I will share the culmination of my research on sustainability with the World Bank’s Global Facility for Disaster Reduction and Recovery and their Open Cities Africa project, and some ways that we can best support mappers and grow a healthier global OSM ecosystem. Two years ago, at SOTM in Milan, I and several colleagues held a panel discussion around sustainability challenges that were common to working with OSM in developing countries. Mappers spoke up about their struggles continuing to map, keeping maps up to date, and growing their mapper communities in places with very few resources. This research has now concluded with a white paper on the topic, and many new learnings along the way. In this talk, I’ll review the outcomes of "Sustainability in OpenStreetMap", https://opendri.org/resource/sustainability-in-openstreetmap/, a publication under OpenDRI at the World Bank. While many groups and projects are arising to do mapping throughout the world, and many for a social purpose, we found a number of challenges to keeping mapping moving forward and overcoming hurdles. These include financial, technological, social, and political challenges, each with its own kind of possible solutions. I also looked into the varieties of OSM actors that would be most likely found in contexts of OSM in development, and what challenges they each may face. These actors include governmental mappers, independent consultants, businesses and startups, nonprofit organizations of a wide variety, international NGOs, formal and informal chapters, and more. Finally, I identified some solutions and supports that are most needed to create a sustainable OSM environment in low-resource geographies. In this talk I will share about all of these findings, and we will discuss the best ways to support a strong international mapper ecosystem. about this event: https://2020.stateofthemap.org/sessions/XAKBJT/


Measuring OpenStreetMap building footprint completeness using human settlement layers (sotm2020)
Jul 05 2020 39 mins  
Non-government organizations and local government units use geographic data from OpenStreetMap (OSM) to target humanitarian aid and public services. As more people start to depend on OSM, it is important to study data completeness in order to identify unmapped regions so that OSM volunteers can focus their attention on these areas. In this study, we propose a method to measure the data completeness of OSM building footprints using human settlements data. Non-government organizations and local government units use geographic data from OpenStreetMap (OSM) to target humanitarian aid and public services. As more people start to depend on OSM, it is important to study data completeness in order to identify unmapped regions so that OSM volunteers can focus their attention on these areas. In this study, we propose a method to measure the data completeness of OSM building footprints using human settlements data. Specifically, we use Facebook’s High Resolution Settlement Layer (HRSL), a dataset of built-up areas derived from satellite images, as a proxy for ground truth building footprints. We then measure data completeness by getting the “percentage completeness” of pixels which is computed using the total percentage of pixels within the intersection of the human settlement layer and the OSM building footprints. The method can be broken down into three steps: (1) convert the human settlement layer into a vector; (2) perform a spatial join to find the intersection between the vectorized human settlement layer and the building footprints; and (3) calculate the data completeness based on pixels from the vectorized human settlement layer that intersect with the building footprints. Chepeish and Polchlopek [1] conducted a similar study measuring data completeness in OSM building footprints. We differentiate our work from Chepeish and Polchlopek [1] in three ways. First, for the human settlement layers, Chepeish and Polchlopek [1] used WorldPop which has a spatial resolution of 100 meters [2] while we used the High Resolution Settlement Layer (HRSL) from Facebook which has a spatial resolution of 30 meters [3]. Second, for the data processing, their group rasterized the building footprints while our group vectorized the human settlement layer. Third, for calculating the data completeness, their group used a combination of geographic information system (GIS) and machine learning (ML) while our group solely used GIS. Using building footprints from January 2020 and human settlement layers dated June 2019 and October 2018, the percentage completeness is 32.75% and 10.89% for the Philippines and Madagascar, respectively. We found that in the Philippines, most of the unmapped pixels are in rural areas. When the pixels are aggregated to the municipality-level and plotted as a scatter plot of the urban percentage completeness vs. the rural percentage completeness, the municipalities appear to group together into two categories: sparsely mapped and thoroughly mapped. A possible explanation is that there are not enough OSM volunteers to map all municipalities and the OSM community focuses on thoroughly mapping high population municipalities rather than moderately mapping all municipalities. Interestingly, poverty incidence data from the Philippine Statistics Authority is not correlated with data completeness. Complete or incomplete OSM data in an area is not an indicator of wealth or poverty. As this work has garnered interest from humanitarian organizations such as the Humanitarian OpenStreetMap Team (HOTOSM), to whom regularly updated information on OSM data completeness is extremely valuable, we looked into ways to automate workflows in QGIS by using the built-in workflow builder tool (i.e. Processing Modeller) and by using the QGIS API. However, as we consider scalability and reproducibility important for this line of work, we ultimately deemed QGIS to be unfit for our use case. QGIS is not scalable because the data processing is not easily parallelizable and it is also not easily reproducible by developers who do not have training with GIS software. Thus, we decided to migrate our workflow to GeoPandas and rasterio and open-source our code [4]. Our workflow improved because (1) we were able to speed up the process by migrating to the cloud and increasing the computing resources; and (2) we were able to improve the reproducibility by allowing us to communicate our work more effectively to people who aren’t familiar with GIS. For future research, we recommend exploring other human settlement datasets The Global Human Settlement Layer (GHSL), for example, has a spatial resolution of 30 meters [5] which is comparable to WorldPop and HRSL. We also encourage further data analysis on the percentage completeness in order to get insights on how to improve the process of contributing to OSM. [1] Chepeish, E., Polchlopek, J. (2018), Estimate OSM building coverage completeness by comparing vs WorldPop raster, GitHub repository, https://github.com/azavea/hot-osm-population. [2] Tatem, A (2017). WorldPop, open data for spatial demography. Sci Data 4(1), 170004, doi.org/10.1038/sdata.2017.4 [3] Tiecke, T.G., Liu, X., Zhang, A., Gros, A., Li, N., Yetman, G., Kilic, T., Murray, S., Blankespoor, B., Prydz, E.B., Dang, H.H. (2017), Mapping the world population one building at a time, arXiv:1712.05839. [4] Orden, A., Flores, R.A. (2020), Supplementary code for "Measuring OpenStreetMap building footprint completeness using human settlement layers, GitHub repository, https://github.com/thinkingmachines/osm-completeness. about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/YUM9PY/

OSM Deep Facts in Developing Country: Indonesia case study (sotm2020)
Jul 05 2020 34 mins  
The number of OSM contributors every year tends to increase. But not all are sustainable contributors. For example in Indonesia, there is a lot of OSM training and Mapathon but it is suspected that there are not many local contributors of all time. For this reason, extracting information from OSM accounts that have been registered since a few years ago that classified as a rare mapper. The method is by recording the top 500 accounts in Indonesia, identifying local accounts based on profiles and heatmaps, sending questionnaires, and summarizing them. The results can be used by the Indonesian OSM community to increase the sustainability of the contribution of local people in OSM. In many developing countries, the number of OSM contributors tends to increase every year. But the amount of increase has not been directly proportional to the sustainability of contributions to OSM. Indonesia is an interesting example of developing countries with many OSM agendas from various parties (Grab, HOTOSM, RedCross, IFRC, OSM Indonesia, National Disaster Agency, etc.) including training and Mapathon. In general, OSM was introduced in Indonesia by HOT OSM since 2012. Until 8 years later there were not many local mappers who contributed sustainably. It is also interesting to explore as a basis for increasing sustainable contributions to OSM by local mappers or mappers who have a certain area of ​​interest. Tools from Pascal Neis help to identify the top 500 newest mappers in Indonesia. As well as the user profile page and heatmap to identify the background mapper and their interest areas. After being selected the "local" accounts are then grouped based on their activity level. Then send structured messages through all their OSM accounts. The results of the interviews are then grouped based on the activity of contributing and the age of the account. Then the statistics are determined based on the diversity of answers. The results of this interview are expected to be useful for all stakeholders who directly and indirectly deal with OSM. Concrete steps for an awareness-raising strategy contribute to OSM on an ongoing basis in every OSM event held. about this event: https://2020.stateofthemap.org/sessions/C9NGG3/

The use of OpenStreetMap within the Italian Alpine Club (sotm2020)
Jul 05 2020 35 mins  
The collaboration between the Italian Alpine Club (CAI) and OpenStreetMap (OSM) officially began with the signing of an agreement between CAI and Wikimedia Italia, the Italian chapter of the OSM Foundation, in 2016. The first activity was to define a standard to be used for CAI objects to be mapped using the wiki, and this started the mapping. Three years after that signature much has been done with a surge in the last year also thanks to the funding of CAI through the project "CONTRACT FOR THE DATA IMPLEMENTATION SERVICE IN THE INFOMONT SYSTEM". This financed one person to carry out different activities: - the data entry in OSM with the procedure used and the situation region by region - the development of software released under a FOSS license able to obtain CAI data from OSM and carry out some conversion and reporting operations - training activities in the different sections of the CAI During the presentation will be made a history of the activities of the CAI with OSM, the results obtained so far and the various features of the software developed. The collaboration between the Italian Alpine Club (CAI) and OpenStreetMap (OSM) officially began with the signing of an agreement between CAI and Wikimedia Italia, the Italian chapter of the OSM Foundation, in 2016. The first activity was to define a standard to be used for CAI objects to be mapped using the wiki, and this started the mapping. Three years after that signature much has been done with a surge in the last year also thanks to the funding of CAI through the project "CONTRACT FOR THE DATA IMPLEMENTATION SERVICE IN THE INFOMONT SYSTEM". This financed one person to carry out different activities: - the data entry in OSM with the procedure used and the situation region by region - the development of software released under a FOSS license able to obtain CAI data from OSM and carry out some conversion and reporting operations - training activities in the different sections of the CAI During the presentation will be made a history of the activities of the CAI with OSM, the results obtained so far and the various features of the software developed. about this event: https://2020.stateofthemap.org/sessions/CDES3T/

Community mapping a means to building resilience (sotm2020)
Jul 05 2020 33 mins  
The study contributes towards some best practices of carrying out community mapping exercise and, distribution of results freely on OSM and spatial data portal like MASDAP for further studies or decision making. Thus the study focused on preparing for mapping - what to map, how to map and how to record the data; the mapping exercise itself; downloading and digitizing of data in map production; and how to use the maps to aid in decision making. The greatest threat to the people, property and economy of Malawi are natural hazards. According to Misomali (2014), since 1946, of all the 298 times the country has been impacted by hazards, 89% of those have been natural hazards while the remaining 11% have been human-generated events. According to MacOpiyo, records indicate that in the last 100 years, the country has experienced about 20 droughts in the last 100 years while in the last 36 years alone, the country has experienced eight major droughts, which have affected over 24 million people (MacOpiyo, 2017). The problem that exists almost every year in Malawi is that it is hit by floods in quite a number of districts. Households, infrastructures: roads, schools, praying houses are affected much alike like cultivation fields. These disasters impact negatively on the social-economic growth of the communities involved and the country at large to some extent. For example MacOpiyo pointed out that in 2015 Malawi experienced a once-in-500-years flood which impacted more than 1.1 million people (MacOpiyo, 2017). Therefore the study aimed at collecting exposure data which was used for production of flood risk maps. These maps were in turn used in Atlas production. Primary and secondary data was used in this study. Secondary data came from disaster profile from the Department of Disaster and Management Affairs (DoDMA) in Malawi which helped in identification of flood prone areas. Secondary data which was exposure data such as buildings, toilets, roads, bridges and schools among others was collected using handheld GPS with an accuracy of 3m. Choice of this data was based on how it impacts on the social-economic activities of the concerned communities. Java OpenStreet Map (JOSM) software was used for digitizing the collected exposure data by overlaying it with satellite imagery and creating attributes of that data. Thereafter, this was uploaded into a GIS environment for conducting symbolization and map visualization. Various maps at different scales were produced which showed location of different areas that were affected by floods. These maps are used to inform the affected communities on areas that are prone to floods. The maps are shared on OpenStreeMap, Malawi Spatial Data Portal (MASDAP) and at regional and district level through workshops. Thus communities should know where to settle or not as well as where they can carry out their socio-economic activities and not be affected by flood. This also helps in building resilience among communities. The study has shown that there is little interventions on the ground to help in reducing the root cause of floods in most parts of the country. There are a lot of mixed reasons as to the causes of floods that affect people in these areas. Living in low lying areas is the main attributed that was found for communities to be heavily affected by floods. Another reason is the siltation within rivers which is causing the rising-up of river beds is another cause of flooding in the country. These have heavily affected the poorly constructed buildings and infrastructures found in the flood prone areas. Another problem that was observed during the course of this study is lack of knowledge and information on disaster risk management. This has resulted in communities being affected when flood disaster strikes. As a way forward, the study proposes that the government and other stakeholder must equip communities with long term interventions in building their capacities and resilience to reduce vulnerabilities. This might be in form of building of dykes along river banks that floods; enforcement of proper construction standards when putting up infrastructures and that communities must also strive to build permanent dwelling houses with strong foundations. about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/TEAKVH/

Towards understanding the quality of OpenStreetMap contributions: Results of an intrinsic quality assessment of data for Mozambique (sotm2020)
Jul 05 2020 38 mins  
Contributors of OpenStreetMap data for Mozambique, a country in Southern Africa, were classified into four distinct groups. The most active group included 25% of all contributors, most of them long-term contributors, and most features were last edited by members of this group. One can therefore conclude that the quality of the data is likely to be good, however, it lacks in completeness and the number of edits per feature is low. Even though no absolute statements about data quality can be made, the analysis provides valuable insight into the quality and can inform efforts to further improve the quality. OpenStreetMap (OSM) has made it possible for any volunteer to contribute geographic information, regardless of their level of experience or skills. Since the task of creating geographic information is no longer exclusively performed by trained professionals, data quality can be a concern. Uncertainty about the quality of data contributed by volunteers has been cited as a hindrance to its use (Mooney and Morgan, 2015). As the number of OSM contributors continues to grow, gaining knowledge about their characteristics and the kind of data they contribute is important. Data quality can be assessed extrinsically, i.e. against reference datasets, or intrinsically, i.e. by analysing the data itself. OSM data quality has often been assessed extrinsically by comparing it to other reference datasets (Girres and Touya, 2010; Haklay, 2010; Neis et al, 2012; Helbich et al, 2012; Mooney and Corcoran, 2012; Fan et al, 2014; Dorn et al, 2015). However, such reference data is not always available and therefore intrinsic assessment methods have been employed (Anderson et al, 2018; Barron et al, 2014). For example, analysing contributors and their contributions can answer questions, such as: What kind of contributors (e.g. experienced vs newcomers) have worked on the data in the area? In which areas should the data be validated or updated (e.g. where data has been contributed by newer contributors or older non-recurring contributors). In this study, contributors and their contributions to OSM in Mozambique, a country in Southern Africa, were analysed in order to gain insight into the quality of the data. We chose Mozambique because in 2019, it received a significant amount of attention in the OSM community following the floods and damages as a result of cyclones Idai and Kenneth. The OSM contributors were characterised in three steps: 1) OSM history data, containing information about the contributors and their contributions, was downloaded; 2) using cluster analysis, OSM contributors were classified according to their contribution characteristics; 3) based on the classification, the OSM data contributors were characterised in Mozambique in order to get insight into the quality of the data. OSM history data provides a record of all the edits (or changes) performed on OSM features. Each edit results in an increment in a feature’s version number. Each version of a feature is associated with a contributor (called ‘user’). The results of the cluster analysis revealed four distinct classes of contributors. The most active class of contributors had 2,552 volunteers (25% of all contributors in the area), with on average the highest numbers of changesets, total contributions, node contributions, way contributions and ways and nodes for which they were the last user to modify them. These volunteers are ‘older’ contributors who have sustained their contributions in the Mozambique area over a long period of time, with the first contributions dating back around 15 years. Compared to the other contributors, they have mapped on more days than the others and the average number of edits per feature is higher. Nevertheless, 99.6% of buildings and 84% of ways in the data had been edited twice at most. Buildings are almost entirely concentrated within the centre of Mozambique, in the areas for which the mapathons were conducted. In some European countries, the number of edits per feature is much higher. Similar to the results of other OSM contribution analyses (Neis and Zipf, 2012), most of the data generated in Mozambique has been contributed by a small group of active contributors who have dedicated a significant amount of time to this. Studies have suggested that such contributors are more likely to be experienced and knowledgeable about the project (Bégin et al, 2013; Budhathoki and Haythornthwaite, 2013; Barron et al, 2014; Yang et al, 2016) and are therefore more likely to produce data that is of good quality (Barron et al, 2014; Yang et al, 2016; Anderson et al, 2018). Even though no absolute statements can be made about the quality of the OSM data for Mozambique, analysing contributors and their contributions provides valuable insight into the quality of the data and can inform efforts to further improve the quality. The results of this study show how one can gain a better understanding of the community that contributes data in a specific area by inspecting history data. Intrinsic methods for evaluating data quality should not seek to replace ground truthing or the use of reference data sets for evaluating data quality (i.e. extrinsic methods), but rather, to complement these methods by providing alternative ways to gain insight about data quality when reference data is not available. about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/9HLLQL/

Earthquakes and OpenStreetMap (sotm2020)
Jul 05 2020 27 mins  
To assess the possible human and financial losses of earthquakes and to estimate the long-term earthquake risk that many people on Earth are exposed to, detailed knowledge of buildings is paramount. This encompasses not only the position, size, and type of buildings, but also the reconstruction value and the number of people inside the building at any time. Using OpenStreetMap data and further open data, we are implementing an open, global, dynamic, purely algorithmic, and reproducible exposure model for the probabilistic description of the aforementioned parameters for every building on Earth, growing and changing with every edit in OpenStreetMap. Earthquakes are threatening many regions in the world with constantly increasing risk due to rapid urbanization and industrialization. To improve resilience and preparedness, we need to estimate the risk of earthquakes with the greatest possible detail. For this, exposure models are used that translate the physical earthquake hazard to building damage, human and financial losses. The level of detail in the risk model directly depends on the level of detail in the exposure model. So far, exposure models are usually described as aggregated building-type descriptions for larger geographic areas, from city districts to even larger administrative units. We present our new open, dynamic, and global exposure model based on OpenStreetMap that does not stop at administrative boundaries but rather attempts to classify and describe every building on Earth with the greatest level of detail. Our open-source model extracts all possible exposure indicators, i.e. footprint shape, number of stories, occupancy type, shape of the roof, etc. and combines the OpenStreetMap data with other open datasets if available. Using these indicators, the model assesses in a probabilistic way the possible building classes, the number of people inside the building depending on the time and day, and the reconstruction value. In areas with incomplete building coverage, the classical aggregate-based exposure models are combined with our model to deliver a probabilistic description of the entire building stock. To achieve a better spatial distribution of buildings in areas of incomplete coverage, we estimate the likely locations of buildings through remote sensing using again open data only, mainly Sentinel-I radar data. Due to the near-realtime computations of our model, it directly profits from the growth of OpenStreetMap and with about 5 million buildings added each month, the areas of incomplete coverage are constantly shrinking, making way for our building-specific exposure model. about this event: https://2020.stateofthemap.org/sessions/KNU7L3/

An Incomplete History of Companies and Professionals in OpenStreetMap (sotm2020)
Jul 04 2020 49 mins  
This talk with survey the bright and dark history of companies and professional involvement in OpenStreetMap, lay out the challenges that we face now, and chart steps forward to figuring this out together. I want to reset the vision of the position of companies in OSM, starting by connecting back in time to when it was all more fluid in our community. Only later did some draw a sharp distinction between volunteer and professional activities in our project. The reality of the relationship of companies and professionals in OpenStreetMap from the very earliest days until today is ... complicated. There's incredible mutual benefit and purpose. There are super hard issues to address when large amounts of resources are mustered, among the constellation of many kinds of actors and motivations in OpenStreetMap. The reality is that OpenStreetMap is transformative, and that companies in OSM first come for the data, may fumble along the way, and stay for the shared mission to change how maps are made in the open. I want to reset the vision of companies place in OSM, starting by connecting back in time to when it was all more fluid in our community. For example, a month after I met Steve Coast in 2005, I was setting up meetings with Google. Helped secure Yahoo! maps imagery in 2007. Companies hosted many of the early days mapping parties. Professional cartographers were among the projects most original enthusiasts. The point was to change how mapping was done -- including and especially at companies. Only later did some draw a sharp distinction between volunteer and professional activities in our project. The reality of the relationship of companies and professionals in OpenStreetMap from the very earliest days until today is ... complicated. There's incredible mutual benefit and purpose. There are super hard issues to address when large amounts of resources are mustered, among the constellation of many kinds of actors and motivations in OpenStreetMap, whether they be hobbyists, developers, students, researchers, non-profits and on and on. The reality is that OpenStreetMap is transformative, and that companies in OSM first come for the data, then stay for the mission. There are of course fumbles along the way. But as a community we've lacked a way to take a clear eyed view of the challenges and vital role companies and professionals have played in what OSM has become today. In part that fault lies with companies themselves, who are risk averse to delving into our wild and wooly communications. Those that do, can take a lot of heat. This talk with survey the bright and dark history of companies and professional involvement in OpenStreetMap, lay out the challenges that we face now, and chart steps forward to figuring this out together. about this event: https://2020.stateofthemap.org/sessions/RHDUV9/

How to publish a multi-modal journey app based on OSM with Trufi App (sotm2020)
Jul 05 2020 39 mins  
Trufi Association NGO offers an open-source journey planner app for formal and informal transport, based on public transport mapped in OpenStreetMap. In this extended talk, I would like to explain, how the participants can be customize the app to their own city, region, and country. With Trufi, mappers and developers can customize an open-source journey planner app for their own city, region or country. Especially in emergent countries in Africa, Middle and South America and Southeast Asia, where informal traffic (no stops, undocumented routes) is mainly in use. For the public transport data part, OSM is used to map the routes, OSM2GTFS or our own tools are used to create GTFS, which is hosted in OTP. Besides the obvious tasks (map routes, customize app code), many more important steps need to be done: Get a team together, find develop perfect UX for your city, release, finance the server and map costs, do marketing, convince governments to collaborate, approach users, run analysis on data, improve OpenStreetMap routes, offer solutions for drivers, etc. I would like to talk about these necessary steps, with stories from our implementations in Bolivia, Ghana, Ethiopia, and Colombia. Finally, I would like to discuss in an extended Q&A part whether OpenStreetMap is made for 100s of (bus) routes - we had fruitful discussions with pros and cons on that in the talk-de mailing list in July 2019 that we could continue. about this event: https://2020.stateofthemap.org/sessions/373NDC/


Gender Performance in OSM Mapping, Does It Matter? (sotm2020)
Jul 05 2020 36 mins  
Plenty of research about behavioural differences between men and women for years ago. According to a scientific article in 2013 by Lewis, on average women may have better verbal memory and social cognition, whereas men may have better motor and spatial skills. Moreover, spatial skill is really needed for mapping, especially as a mapper volunteer in OSM that everyone can make their own map. It also has been known that male mappers more dominate OSM mapping than female mappers. Nevertheless, in some mapper communities, the number of female mappers more than male mappers, for example in Humanitarian OpenStreetMap Team Indonesia. 19 from 30 mappers in HOT Indonesia are female, yet does it affect the performance and quality of mapping in OpenStreetMap? It is true that men mappers more dominate OpenStreetMap (OSM) mapping than women mappers. Some mapper communities have the number of female mappers than males mappers. For instance in Humanitarian OpenStreetMap Team Indonesia (HOT Indonesia), 19 from 30 mappers in HOT Indonesia are female. Moreover, it is a fact that men and women have some behavioural differences and it might affect their working performance, especially in OSM mapping. According to the number of changesets, addition, deletion and modification in OSM mapping that tracked through OSMCha, it can be seen the difference between female and male mappers when they are mapping some objects in OSM. OSMCha offers many features for reviewing OSM, one of the features is to review a changeset and mapper details that include the mapper username, the number of changesets that mapper has contributed in OSM. Besides, it has changeset-map for visualising of changeset on OSM and the addition, deletion, and modification can be seen by other OSM users. Thus, through those data, it can be seen how is the difference between females and males when they are contributing data in OSM, also how the quality of OSM map that they create. I believe, those differences can be helpful for creating better data for OSM and invite another female to contribute in OSM. about this event: https://2020.stateofthemap.org/sessions/AWT7K8/

Examining spatial proximity to health care facilities in an informal urban setting (sotm2020)
Jul 05 2020 41 mins  
This study explores the following research questions using OpenStreetMap-based mapping approach and healthcare facility survey from one of seven slums being studied in Africa and Asia. What are the differentials of spatial proximity to health care providers in informal settlements like slum? What are some of the lessons learnt from using OpenStreetMap-based mapping approach for slum health research? Preliminary findings suggest that residents can access four categories of healthcare facilities (Clinics/Maternity Centres; Patent Medicine Stores; Traditional/Faith Healers; Eye Health Centre) within a walking distance (under 1km) where Clinics and Maternity Centres are farthest from most residents. Background. The United Nation Sustainable Development Goal (SDG) 3 seeks to ensure universal health coverage for everyone irrespective of geographical location by 2030. Anecdotal evidence exists on the possibility of attainment of the goal at household level in slum areas most especially in Africa. Recent studies suggest further work on the advancement of empirical evidence on slum health [1], [2]; especially in Africa where slum population growth is reported to be at the same level with urban population growth [3]. There is the need to understand the dimensions of spatial proximity to healthcare facilities in Nigeria towards achieving SDG 3 [4]; especially in slum areas where little evidence exists. Spatial access to appropriate healthcare is even more relevant given the rapid rise in Covid-19 cases globally. The lack of detailed quality spatial data is a concern to both researchers and development agencies [5]. In an attempt to contribute to the knowledge gap in slum health studies, this study draws on two data sets (field validated OpenStreetMap data and healthcare facility survey data) from an ongoing research project to examine spatial proximity to healthcare facilities (HCFs) in Sasa, an informal urban “slum” area in Nigeria. The decision to focus on spatial proximity is based on findings from a household survey, in an ongoing project, which suggest that one of the main reasons given by respondents for choosing HCFs is proximity. Conceptually, there are two main schools of thought about spatial proximity [6]; this study considers proximity as a distance measure defined quantitatively. The ongoing research project is a National Institute for Health Research (NIHR) Global Health Unit on Improving Health in Slums at University of Warwick [7]. This Unit focuses on health services in slums through the study of seven slum sites in Africa and Asia and aims at finding optimal ways to enhance health services. We thus present initial results from one of the study sites in Africa. The following research questions are explored. What are the differentials of spatial proximity to health care providers in informal settlements like slum? What are some of the lessons learnt from using OpenStreetMap-based mapping approach for slum health research? Method. An OpenStreetMap-based data collection methodological approach was developed and implemented [8]. A spatially-referenced sampling frame was generated through a combination of: remote participatory mapping from satellite imagery; local participatory mapping and ground-truthing; and the identification of dwellings of each validated structure. Additionally, a healthcare facility survey was conducted to capture types of facilities etc. The following categories of HCFs are drawn from survey data and used for analyses: four Clinics and Maternity Centres (CMC); twenty-two Patent Medicine Stores (PMS); five Traditional and Faith Healers (TFH); and, one Eye Health Centre (EHC). Two-fold analyses are conducted. First, two measures of spatial proximity (spatial network and Euclidean distances) to different types of HCFs within the site are computed using field validated OpenStreetMap (OSM) network data. Bivariate analysis is performed to test sinuosity (ratio of network and Euclidean distance). Additionally, comparative analyses of combined means and medians (using k-independent samples median tests) for categories of HCFs are performed. Second, a reflective exercise is undertaken to outline some of the lessons learnt during the research process related to the OSM-based approach. Result. The presentation will discuss the outcome of the two-fold inquiry outlined. Preliminary results show strong positive correlation (r=.97; 99% CI) between the two spatial proximity measures suggesting that Euclidean and network spaces are quite similar in terms of accessibility to health care services within Sasa slum. Overall sinuosity index is 1.16 suggesting that the non-linear nature of network routes to HCFs contributes to 16% more than the Euclidean metric. The combined network distance grand mean (with standard deviations) and grand medians for each of the categories are as follows: 727m (±299) and 766m for CMC; 579m (±256) and 563m for PMS; 589m (±240) and 589m for TFH; and, 503m (±204) and 490m for EHC. Residents can access these facilities within a walking distance (under 1km) where Clinics and Maternity Centres appear to be the farthest from most residents. This study advances the evidence base on slum health towards achieving SDG 3 and promotes the use of OSM-based mapping approach and data for slum health research. about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/FLHGVQ/

Evolution of humanitarian mapping within the OpenStreetMap Community (sotm2020)
Jul 05 2020 35 mins  
Since 2010 organized humanitarian mapping has evolved as a constant and growing element of the global OpenStreetMap (OSM) community. We analyse the history of humanitarian mapping using OpenStreetMap History and OSM Tasking Manager (tasks.hotosm.org) data. We conduct a comprehensive quantitative analysis on a global scale and long term perspective to depict more than just snapshots of individual events. Results show that in regard to edits, users, projects, geographic diversity, almost all of these have experienced linear growth. But regarding user commitment and validation efforts we conclude that the humanitarian mapping community still faces huge challenges to achieve sustainability. ## Introduction Since 2010 organized humanitarian mapping has evolved as a constant and growing element of the global OpenStreetMap (OSM) community. In the last few years, several researchers have analyzed humanitarian mapping practices (e.g. Zook et al. 2010, Soden et al. 2016, Dittus et al. 2017), however most of this work was either event-driven or focused on specific time periods and regions. The OSM ecosystem and the actors involved in it are constantly changing and emerging, for instance also due to the mapping activities of corporates (Anderson et al. 2019). ## Purpose of this study In our work we analyse the history of almost 10 years of humanitarian mapping in OpenStreetMap using the OSM Tasking Manager (tasks.hotosm.org). We conduct a comprehensive quantitative analysis on a global scale and long term perspective in order to depict more than just snapshots of individual events. We show how humanitarian mapping was impacted by major mapping disaster response events, but also widened its application to other domains such as disaster preparedness. Our approach follows two paths. One focuses on the mapping itself. The other focuses on the composition of the humanitarian mapping community. We provide insights on the following research questions: 1. Where, for what purpose and at what scale did humanitarian remote mapping actually happen in 2012-2020? 2. What is the impact of humanitarian contributions and how does it differ among user groups and over time? ## Methodology and Results ### Data Our analytical approach is characterized by the combination of the following data sets: (1) For general OSM mapping and user characteristics we use the whole history of OSM object versions and edits provided by the OSHDB framework (Raifer et al. 2019). (2) We were provided with a HOT Tasking Manager database dump covering the time between 11/2012 until 12/2019. ### Method Our method uses spatio-temporal time series analysis based on a hexagonal grid for all areas humanitarian mapping activity has been conducted. We investigate the evolution of humanitarian mapping with respect to several attributes including number of OSM contributions (created, modified, deleted OSM objects), percent of tasks mapped and validated in the Tasking Manager and number of OSM contributors involved. We set our findings and the geographical distribution of our results in context to the overall OSM mapping and user characteristics. ## Results Humanitarian mapping has grown almost linear with respect to the numbers of projects, unique users, tasks mapped and OpenStreetMap contributions. While at the same time it got more diverse in terms of spatial distribution of mapping activities and organizations involved. In 2018 more than 100 organizations were running projects on every inhabited continent except Australia. Peaks in mapping activities in the first quarter of 2015 and the third quarter of 2017 are reflecting activations of the community in responses to the Gorkha earthquake as well as to the hurricanes Harvey, Irma and Puebla earthquake. Although the number of mappers is growing, the humanitarian community lacks long term commitment. Almost 70% of humanitarian mappers contribute one day only. Another 10% drops out after ten days of being active. However the number of one day only contributors is steadily rising, whereas mappers involved on 5 or more days seem to be saturated since 2017. Nonetheless, the one day only contributors have a considerable impact on the data. They account for 10% of all edits, whereas contributors involved on 100 or more days account for 50%. This pattern is reflected by the composition of user actions as well. The number of mapping activities is growing almost linear, whereas the amount of validators stagnate. However, different organisations have varying degrees of success in recruiting new validators. The american red cross for instance accounts for 30 to 50% of all first time validators in the last 12 months. ## Discussion Humanitarian mapping with the tasking manager now exists for more than seven years. In terms of scale it is definitely a success story. We have shown edits, users, projects, geographic diversity, almost all of these have experienced linear growth. But with respect to the numbers of user commitment and validation efforts we conclude that the humanitarian mapping community still faces huge challenges to achieve sustainability. Only a small proportion of users contribute regularly and an even smaller fraction does validation. But this very phenomenon is nothing new for OSM in general. Nevertheless, we have seen that some organisations and communities are more successful than others in recruiting and retaining users. Our results may support decisions for future strategies on user engagement. However to what degree this community composition affects data quality remains open. Within our work our definition of humanitarian mapping is rather narrowed. Our insights about humanitarian mapping in OSM provide only an incomplete picture which lacks an on-the-ground perspective and neglects other remote mapping tools. about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/SNEDXL/

From Historical OpenStreetMap data to customized training samples for geospatial machine learning (sotm2020)
Jul 05 2020 42 mins  
Recently, OpenStreetMap (OSM) shows great potentials in providing massive and freely accessible training samples to further empower geospatial machine learning activities. We developed a flexible framework to automatically generate customized training samples from historical OSM data, which in the meantime provide the OSM intrinsic quality measurements as an additional feature. Moreover, different satellite imagery APIs and machine learning tasks are supported within the framework. After more than a decade rapid development of volunteered geographic information (VGI), VGI has already become one of the most important research topics in GIScience community [1]. Almost in the meantime, we have witnessed the ever-fast growth of geospatial machine learning technologies in intelligent GiServices [2] or addressing remote sensing tasks [3], for instance land use land cover classification, object detection, and change detection. Nevertheless, the lack of abundant training samples as well as accurate semantic information has been long identified as a modelling bottleneck of such data-hungry machine learning application. Correspondingly, OpenStreetMap (OSM) shows great potentials in tackling this bottleneck challenge by providing massive and freely accessible geospatial training samples [4]. More importantly, OSM has exclusive access to its full historical data [5], which could be further analyzed and employed to provide intrinsic data quality measurements of the training samples. Therefore, a flexible framework for labeling customized geospatial objects using historical OSM data allows more effective and efficient machine learning. This work approaches the topic of labeling geospatial machine learning samples by providing a flexible framework for automatically customized training samples generation and intrinsic data quality measurement. In more detail, we explored the historical OSM data for twofold purposes of feature extraction and intrinsic assessment. For examples, when training a building detection convolutional neural networks (CNNs), the OSM features with tags as building=residential or building=house are certainly of interests while the data quality of such features might play an important role later in the CNNs training phase. Therefore, besides the acquisition of the user-defined OSM features, we provide additional intrinsic quality measurements. Currently, we consider some basic statistics, such as the areas of buildings tagged with different OSM tags, the amount of distinct contributors in the last six months, or the equisdistance of polygons with landuse=cropland etc , since the existing research suggested that the lower equisdistance of the current polygon, the better relative quality of the polygon, which due to the further refining and editing from users [6]. In the future, one could also easily extend the current framework and develop other sophisticated quality indicators for specific “fitness-for-use” purposes. Heterogeneous remote sensing APIs are supported within the framework, user’s option ranges from commercial satellite image providers (e.g., Bing or Mapbox) to government satellite missions (e.g., Sentinel-hub), even user-defined tile map service (TMS) API. Correspond to OSM features, the satellite image would be automatically downloaded via TMS and tiled into proper size. Moreover, this framework also supports different machine learning tasks, like classification, object detection, and semantic segmentation, which requires distinct sample formats. The preliminary test is performed to extract the geographical information of water dams with OSM tag waterway=dam, which enables the training of water dams detection CNNs, where users could easily change the geospatial water dams to customize objects as long as the corresponding OSM tags are identified. This work aim to promote the application of geospatial machine learning by generating and assessing OSM training samples of user-specified objects, which not only allows user to train geospatial detection models, but also introduce the intrinsic quality assessment into the “black box” of the training of machine learning models. Based on a deeper understanding of training samples quality, future efforts are needed towards more understandable and geographical aware machine learning models. References [1] Yan, Y., Feng, C., Huang, W., Fan, H., Wang, Y. & Zipf, A., (2020) Volunteered geographic information research in the first decade: a narrative review of selected journal articles in GIScience, International Journal of Geographical Information Science. [2] Yue, P., Baumann, P., Bugbee, K. & Jiang, L., (2015). Towards intelligent GIServices. Earth Sci Inform 8, 463–481. [3] Zhu, X., Tuia, D., Mou, L., Xia, G., Zhang, L., Xu, F. & Fraundorfer, F. (2017) Deep Learning in Remote Sensing: A Comprehensive Review and List of Resources IEEE Geoscience and Remote Sensing Magazine, vol. 5, no. 4, pp. 8-36. [4] Li, H., Herfort , B., Zipf , A. (2019 ): Estimating OpenStreetMap Missing Built up Areas using Pre trained Deep Neural Networks. Proceedings of the 22nd AGILE Conference, Cyprus. [5] Raifer, M., Troilo, R., Kowatsch, F., Auer, M., Loos, L., Marx, S., Przybill, K., Fendrich, S., Mocnik, F.-B.& Zipf, A., 2019. OSHDB: a framework for spatio-temporal analysis of OpenStreetMap history data. Open Geospatial Data, Software and Standards 4, 3. [6] Barron, C., Neis, P. & Zipf, A. (2014) A Comprehensive Framework for Intrinsic OpenStreetMap Quality Analysis. Transactions in GIS, 18(6), 877–895. about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/HUKVDK/


MapImpact: Mapping and social researchs by students in Cusco, Perú (sotm2020)
Jul 04 2020 33 mins  
In Cusco, Peru, during the last 2 years, GAL Center worked with students using OSM and associated tools, such as Kobo as educational tools, mainly for research into social problems that the students themselves identify in their locality. Projects such as “Sexist advertising mapping”, “Sexual health” and “Garbage mapping in Larapa” were the result of this work. This year, MapImpact is one of the HOT Microgrants and we will work with high school students and YouthMappers Chapters that we help to create in universities. In this talk, I will tell you more about how we work MapImpact in GAL: our objectives, our methodology, our results and why we would like it to be replicated in other places. MapImpact is a GAL Center project in Cusco, Peru, which aims to make more students aware of the problems that afflict their locality, to achieve this they will have to investigate these problems using OSM and associated tools such as Kobo Collect, as the main research tool. To develop this project GAL had a previous experience of 2 years, in which we work with high school students in different provinces of Cusco and help in the creation of the first YouthMappers Chapters in Peru, projects such as “Sexist advertising mapping”, “Sexual health” and “Garbage mapping in Larapa” were the result of this work. This year we will work MapImpact also with university students and our intention is for students to understand digital maps not only as a tool to generate geospatial data, but also as a tool of social impact, that is, the process not end when they save the changes in OSM, they have to use that information to make visible a problem that afflicts their location. In this talk we would like to share with you the whole process we follow to reach this point. about this event: https://2020.stateofthemap.org/sessions/3AJAEF/


Building Stronger Communities Together - the Local Chapters & Community Working Group (sotm2020)
Jul 04 2020 32 mins  
Do you get together with other mappers in your town? Would your group benefit from a bit more support? In this talk you will learn about the newly reformed Local Chapters & Communities Working group and our effort to support mapping groups all over the world. Attend this talk to learn more about the Local Chapters and Communities Working Group (LCCWG). This talk will share our current initiatives as well as invite ideas from participants, and will precede the annual Local Chapters Congress, so hopefully we'll see you at both! Who are the Local Chapters & Communities Working Group? Reformed in November 2019, the LCCWG are a small group of OpenStreetMap enthusiasts and community leaders interested in finding and implementing ways for the Foundation to support the growth of local communities. The LCCWG hopes to facilitate a global exchange of ideas and support among local leaders, and work together to create strong local communities. Right now we have 3 focus areas: building local community cohesion, sharing ideas and best practices globally. We hope to encourage established communities to further organise themselves and eventually formally affiliate with the Foundation as one of its Local Chapters. We will review the role of Local Chapters within the Foundation and the interactions between them. Based on our findings we will make recommendations to the Board as to how the affiliation scheme can be improved to provide a stronger case for local communities to eventually become Local Chapters, or possibly suggest creating new affiliation models such as less-formal user groups. Interested in representing your community on the Working Group? Start by joining the conversation today! Find out more about the LCCWG on the Wiki https://wiki.osmfoundation.org/wiki/Local_Chapters_and_Communities_Working_Group. about this event: https://2020.stateofthemap.org/sessions/DVR7ME/


Mapcampaigner Redesign: The Data Quality Monitor For OSM (sotm2020)
Jul 04 2020 25 mins  
Humanitarian Openstreetmap Team (HOT) is an international team focused on humanitarian action and community development through open mapping. Since 2010, the organization has managed activations to attend multiple events such as understanding hazards, public health, refugee response, among others. However, when we think about organizing large-scale efforts it can be complex, due to the necessary logistics, volunteers involved, and also assuring that the data collected is meaningful. MapCampaigner, is a tool which monitors progress, view metrics on the quality and completeness of collected data and users engaged. The goal of this talk is to present the latest features included in the latest update of the tool, the goals that MapCampaigner accomplishes and many humanitarian and non-humanitarian examples through a demo. When we talk about a mapping campaign, it generally has specific characteristics: Desire to collect geospatial data for a purpose. Define an area of interest. Define a set of features and attributes to collect. The period of time of the campaign Group of people to collect the data. Could be highly trained staff members or volunteers. It would sound simple. However, it is possible to find challenges in difficult places. For instance, how to crowdsource precise locations and specific attributes of every school in Barranquilla, Colombia? Because some locations are inaccessible, it becomes difficult and costly to deploy people to the area to collect and validate the data. Many tools have been developed to address these challenges remotely, like OpenMapKit and Maps.me to collect data and do some quality assurance with JOSM, for instance. Despite this, these tools do not have the property to monitor specific features/attributes, define current status of the mapping campaign, or validate people contributing in an area. Putting these challenges in mind, HOT designed the MapCampaigner tool. Users can track and measure the quality of many features such as schools, buildings and cafes at the same time. This mapping campaign will report users involved, missing tags, and percentage of completeness in an area for each attribute collected. Also, MapCampaigner has integrations with apps such as Maps.me and OpenMapKit In this talk, I will walk through the tool, how it is used, and seek input for enhancements. Will show new features included in the latest user-centered redesign using live demo. The schedule of this talk is the following: Introduction and problem statement (5 minutes). MapCampaigner features (5 minutes) Examples and demo (5 minutes) Conclusions and future work (5 minutes) about this event: https://2020.stateofthemap.org/sessions/VJS3LC/

Visualizing Gender of Street Names in Brazil (sotm2020)
Jul 04 2020 33 mins  
How I used OSM data to visualize gender disparity in street names for all of Brazil. The result shows how women are underrepresented in street names in the country, and raises questions on who is chosen to be commemorated in street names. Using OSM road data and a database of gender popularity for names, I created a map visualization to show gender disparity in street names in Brazil. Streets named after women represent only a small proportion of the streets in Brazil. This proportion is even smaller when we consider the length instead of the number of streets. In Brazil, streets are typically named after prominent historical figures, including politicians, business people, military, religious figures, artists, and academics, among others. The small representation of women among these reveals who is chosen to be regarded as prominent, and thus commemorated in a street name, and who isn't. Another interesting aspect is that the map allows up to see certain areas and neighborhoods where female street names predominate. Upon quick visual examination, these appear to be usually in neighborhoods at the periphery of large cities. More in-depth research could indicate if there's a spatial pattern here and if it is related to other social phenomena. The interactive map was based on the Road Orientations Map by Vladimir Agafonkin. I used Mapbox and mbtiles for the map visualization. To process the source data, I used Geofabrik extracts of OSM data and Postgres / PostGIS scripts. The interactive map is here https://medidasp.com/projetos/genero-ruas/#12/-23.5617/-46.6469 and the github repo is here https://github.com/bplmp/genero-ruas-mapa about this event: https://2020.stateofthemap.org/sessions/HLFEER/

There might have been a misunderstanding... (sotm2020)
Jul 04 2020 42 mins  
When people come to OpenStreetMap for the first time, their expectations are sometimes at odds with what the OpenStreetMap community is doing. If you have been puzzled by an OSMer telling you that OpenStreetMap is not a map, that openstreetmap.org is not aiming to compete with Google Maps, or by their stubborn refusal to remove a private trail from the map, then this talk is for you. It will explain the basic tenets of the OpenStreetMap community and how they apply in practice. This talk will explain some of the often-heard but little-documented basic concepts in OSM, like * we are not a map (but a database) * the map does not matter (the community does) * openstreetmap.org is not aimed at the public (but at mappers) * we map what's on the ground (not what the government or the landowner wants) Building on that, the talk will also outline why the OSM community is often skeptical about filling an empty map with data imports, about AI contributions, or about automatic edits, and why OpenStreetMap is not a business directory. The plan is to explain the basic ideas and give examples of their effects for data users or for everyday mapping practice. Where the concepts are controversial or subject to discussion, these controversies will be mentioned but not followed in depth. This talk will focus on "traditional" values in OpenStreetMap because they are omnipresent. After hearing these explanations, newcomers will have a better chance of understanding where people come from when they say things like "we are not a map", and will be better prepared to form their own opinion. about this event: https://2020.stateofthemap.org/sessions/DYXWDC/

Turkish Law on National Geospatial Data and Its Implications Regarding OSM and the Community (sotm2020)
Jul 04 2020 30 mins  
The talk will focus on the Turkish law egulating the acquisition, collection, dissemination and trading of spatial data falling within the responsibility matrix of Turkish National Geographic Information System, effective since February 20, 2020. With the law, acquisition, collection, dissemination and trading of spatial data which is defined within the National Spatial Data Responsibility Matrix by third party individuals or legal entities are subject to prior application fees and approval of the Ministry of Environmental and Urban Affairs. The talk will reflect and report the developments in Turkey after the law, effects and implications drawn focusing on the national spatial sector, OSM, and the Turkish OSM community. On January 30, members of the Turkish parliament voted in favour of the proposed amendment to the law regulating the acquisition, collection, dissemination and trading of spatial data falling within the responsibility matrix of Turkish National Geographic Information System. The law has officially been put into practice on February 20, with nationwide uncertainties on how it will be enforced, and on what level. With the law, the sole responsibility and authority on the national spatial data index is given to the Ministry of Environmental and Urban Affairs. Acquisition, collection, dissemination and trading of spatial data which is defined within the National Spatial Data Responsibility Matrix by third party individuals or legal entities are subject to prior approval of the ministry. Moreover, the approval will be subject to a fee of 25₺ for native, 50₺ for foreign parties per each 1/1000 plan corresponding to the study region(s) from the national topographical grid. The data layers which are included in the national spatial data responsibility list is as follows: 1. Coordinate Reference Systems and Geographical Grid Systems 2. Administrative Units 3. Geographical Names 4. Cadastre 5. Buildings 6. Addresses 7. Elevation 8. Orthophoto 9. Transportation Networks 10. Hydrography 11. Geology 12. Land Cover 13. Land Use 14. Soil Types 15. Protection Areas 16. Natural Risk Regions 17. Infrastructure 18. Energy Resources 19. Mines 20. Public Health and Safety 21. Populaiton Demographics 22. Environmental Monitoring Facilities 23. Industrial Facilities 24. Agricultural Facilities 25. Public Administration Regions 26. Flora and Fauna 27. Habitat Zones 28. Biogeographical Zones 29. Sea and Saltwater Regions 30. Atmospherical Data 31. Meteorological Data 32. NUTS Data The talk will reflect and report the developments in Turkey after the law, effects and implications drawn focusing on the national spatial sector, OSM, and the Turkish OSM community. about this event: https://2020.stateofthemap.org/sessions/JAG7JD/

OSM data assessment in the area of Athens - Greece (sotm2020)
Jul 04 2020 23 mins  
Current presentation aspires to contribute to an overall assessment of the OSM map in Athens, Greece. The OSM content is assessed in terms of completeness and precision. Various official mapping sources and ground truth data are employed in order to measure the current state of the map. Current research aspires to contribute to the assessment of the OSM map in Athens, Greece in terms of completeness and precision. The researcher chose Athens as, according to international published research regarding the phenomenon of Volunteered Geographic Information, it is initially assumed that it will have the maximum quality level, as Athens is the most populated city of the country. The analysis includes mainly quantitative evaluation methods. To the level that access to editable - data is feasible, various GIS techniques are employed while in other cases the assessment is performed through samples in various regions of the municipality. While evaluating, all the known properties and characteristics of Volunteered Geographic Information are considered. Eventually, a short discussion related to similarities and differencies from other published OSM assessments in other countries, completes this short initial presentation. Apart from official mapping sources, ground truth data, collected through the use of in-car GPS devices, in certain areas of the city, are providing valuable insights regarding the level of quality. The research focuses on certain geographic entities, including the geometry of the road network, the street naming and addressing, various administrative units, some building footprints, parks and POIs. about this event: https://2020.stateofthemap.org/sessions/V9J9JS/


Creating an open data ecosystem for reviews of places and more (sotm2020)
Jul 04 2020 35 mins  
We built open-source infrastructure that allows the community to integrate open data reviews of POI into the OpenStreetMap ecosystem. This enables any application or website to make use of a reviews layer, and to benefit from the shared data pool that is created by a combined user base of participating applications. We built it to ensure that people all over the world can freely share their insights about things that matter to them without being confined to proprietary data silos. Mangrove is a non-profit initiative to create a public space on the Internet where people can freely share insights with each other and make better decisions based on open data. Our goal is to create an Open Data Ecosystem for Reviews of places, companies, websites, books, and more. We built open-source infrastructure that enables any application or website to integrate a reviews layer, and to benefit from the shared data pool that is created by a combined user base of participating applications. In this talk, we are going to introduce to the OpenStreetMap community the technology that is available, and we are going to show how OSM-based projects could benefit from an integration with Mangrove. Furthermore, we are introducing the non-profit Open Reviews Association, ORA, who became the custodian of the Mangrove technology and open dataset. We invite anyone to join as a member in order to shape the direction of the project and help achieve its vision. about this event: https://2020.stateofthemap.org/sessions/AA8RXP/

The Map in 360 (sotm2020)
Jul 04 2020 28 mins  
Mobile mapping is the process of collecting geospatial data from a mobile vehicle using a 360º camera, laser scanner, GPS/IMU positioning system, and other sensors. Mobile mapping is a time and cost-effective way to conduct asset inventory, monitor road infrastructure, and map street furniture. However, the high cost of acquiring mobile mapping equipment, such as professional 360° cameras and laser scanners, inhibit the ability of local OpenStreetMap communities to leverage mobile mapping technologies. With advice from Mapillary, low-cost devices that are accessible to communities make mobile mapping possible on a wider scale. 360º cameras may be used in different vehicle types: cars, bicycles, quad bikes and also on foot. With a 360º field of view, these cameras capture everything around the sphere. Where flat frame images can limit the map editing workflow, 360º images bring panoramic viewing to OpenStreetMap editors for a more comprehensive understanding of the space and place. The Mapillary photo overlay supports panorama view on OSM ID Editor and JOSM. After images have been captured and uploaded to the web, Mapillary creates a reconstruction of the scene in 3D using an open-source Structure from Motion library (OpenSfM). This helps to improve the image GPS positions, based on the overall consistency of the 3D scene. Next, the objects in the imagery (such as traffic signs and other types of objects) are identified by computer vision. Combining detections of an object in several images and the aforementioned 3D model allows us to calculate the position of the detected object in the world. Overall, this talk will examine the recommended 360º cameras, discuss data collection and benefit of street-level imagery collection with 360º cameras, review strategies for uploading 360º images, comparing different 360º camera models, and highlight how OpenStreetMap communities around the world are using 360º images to improve local maps with Mapillary. about this event: https://2020.stateofthemap.org/sessions/YTHZWC/


Lightning Talks I (sotm2020)
Jul 04 2020 41 mins  
Lightning Talk session. ## Kenya Covid-19 Tracker *Zacharia Muindi* Map Kibera has launched the Kenya COVID-19 Tracker Ushahidi Instance to document geospatial data, map out resources and services being offered to the community in response to Covid-19 and track cases across Kenya. The project will improve OSM basemaps in Kibera and other informal settlements of Nairobi to allow visualisation of current status and hotspots. ## Mapping Gender issues in Kenya *Caroline Akoth (WiGIS, Kenya)* This lightning talk will cover Women in GIS, Kenya efforts to map gender issues in Kenya with support of our community, through #DataViz Challenges. ## Where can you dine like a king? *Stefan Keller* - [Whitepaper](https://md.coredump.ch/s/H1IQbLzjU), [Slides](https://www.slideshare.net/StefanKeller/where-can-you-dine-like-a-king) Synchronizing Local Datasets and OpenStreetMap using QGIS. ## Nurturing a Ministry of Mapping *David Garcia* Who cares for the mapmakers who care? I would like to share a story about a geospatial collective about OSM and FOSS4G that we have been trying to organise in the Philippines during the pandemic. ## Building the Street View Experience, Lagos, Nigeria *Ayo Akinseye* - [Website](http://www.moriwo.com/), [Slides](https://digitalspatial.com/sotm2020/presentation/) For better Geo visualization, we built a website with Geo referenced 360 degree panorama photos. Lagos, Nigeria is our first phase. ## What's new on OSMCha? *Wille Marcel* OSMCha is a validation tool for OpenStreetMap. On the last months we added some new features like visualization of relation members and more options of background imagery. Get updated on OSMCha with this talk. ## [GeoLadies PH](https://www.facebook.com/geoladiesph/) *Arnalie Vicario* Brief talk about GeoLadies PH, which was inspired by Maning Sambale's "How Do We Change the Ratio?" presentation in 2014. GeoLadies PH dvocates incommunity diversity, collaborative participation and affirmative spaces forwomen and under-represented communities in OpenStreetMap and the localgeospatial science community. ## Fighting FGM (Female Genital Mutilation) with Maps *Janet Chapman* about this event: https://2020.stateofthemap.org/sessions/AZPHEF/

Ranks for Rendering (sotm2020)
Jul 04 2020 31 mins  
Separation of features by their importance is a core technique in cartography. But what happens if features of the same feature class (e.g. train stations) have a varying importance? A manual cartographer can choose the important features based on other knowledge. Howerver, rule based cartography which is dominating in the OpenStreetMap environment cannot work this way. A computer programme rendering a map needs selection rules. Someone has to implement them. This talk presents some examples showing how to add lacking relevance information if the importance of features within one feature class ranges span between extreme values. It will show how train stations and airports can ranked using other OSM data and external datasets. Maps cannot show all information at all scales. A cartographer needs to decided which features should appear at which scale on the map. OpenStreetMap based web maps are usually products of rule-based cartography, a computer programme selecting features from a data store and rendering them. It needs rules. If all the features of a feature class are of similar importance, the selection is simple. If not, ranks or attributes to be used for ranking are required. Ranks are assigned to roads as values of the `highway=*` tag, rankable attributes are available as `population=*` tags in OpenStreetMap. In some cases some features of a feature class are of high importance but many other features of that class are irrelevant at medium or lower scales. For example, a map on a medium scale cannot show all stations or all airports in a country. Some airports are only used by a few flights per day, others are not even public. Some train stations have dozens of trains per hours while others get served only few times per week or are used by a dozen passengers per week. Important features should appear at country level but irrelevant features should appear at high scales only. This challenge has not been addressed by map styles used for OpenStreetMap data so far. Authors of map styles circumvent the issue by rendering all features at higher scales only or by selectiong features randomly until enough features are rendered. The talk will present how to add ranking information to train stations and airports from OpenStreetMap using other OpenStreetMap data and/or external datasets. The ranking is applied in the rendering database. The ranking train station is based on the presence of public transport route relations and has been used for train station rendering of OpenRailwayMap's infrastructure map style since January 2020. about this event: https://2020.stateofthemap.org/sessions/3FNPY7/

Building mapping communities in rural Tanzania – challenges, successes and lessons learnt (sotm2020)
Jul 04 2020 40 mins  
Crowd2Map Tanzania is a volunteer run crowdsourced project that has been mapping rural Tanzania since 2015. This talk will give an overview of some of the lessons learnt, particularly in building mapping communities in remote rural areas with first time smartphone users. Since 2015, we have been adding schools, hospitals, roads, buildings and villages to OpenStreetMap with the help of over 12500 volunteers worldwide and 600 on the ground in Tanzania. With minimal budget and no staff we have so far added over 4.1 million buildings and trained community mappers in 26 areas of Tanzania. We were asked to run a mapathon at the United Nations General Assembly in October 2018 and have also been featured in many newspaper articles. We have prioritised mapping those areas of Tanzania where girls are at risk of Female Genital Mutilation, FGM, so that activists and the police can more easily find and protect them. But we have also been working with other community groups and district officials on how maps of their area can help with development. The mapping is in two phases – firstly online volunteers trace roads and buildings from satellite images then volunteers on the ground add names of villages, offices, churches, shops and other points of interest using a free smartphone app Maps.Me and we then produce printable maps of villages, wards and districts, and train people about how they can use these maps. Training field mappers who have never been online, seen a map of their village, or used a smartphone before has multiple challenges. This talk will outline some of them, and lessons learnt, and seek to stimulate a discussion from the wider community on sharing good practice and resources in this area. about this event: https://2020.stateofthemap.org/sessions/DZ8PWQ/

Assessing Global OpenStreetMap building completeness to generate large-scale 3D city models (sotm2020)
Jul 05 2020 40 mins  
This presentation describes the ongoing work at the Urban Analytics Lab at the National University of Singapore, developing novel methods to assess building completeness at a multi-country scale, as part of a broader project of generating 3D city models on a large-scale using OpenStreetMap. Quality assessment of OpenStreetMap (OSM) data has been an important topic since the inception of the project. Much research has been done on this topic by many research groups around the world, and it can mostly be seen as permutations of three aspects: (1) spatial data quality element(s) in focus (e.g. positional accuracy, completeness), (2) theme (e.g. amenities, buildings, roads), (3) geographical area (e.g. particular city or country); e.g. positional accuracy of cultural features in Italy. Completeness is one of the principal quality aspects of geospatial data, and our research focuses on developing a method to assess the completeness of buildings in OSM on a large scale (spanning several countries). While there are many robust OpenStreetMap completeness techniques and studies developed, they mainly focus on limited areas, mostly developed countries with ground truth data at hand for comparisons. Doing the same for less developed regions is rare as the lack of authoritative data inherently hampers it, and the methods hardly ever scale: such an analysis done simultaneously for more than one administrative region is seldom carried out as there are other research challenges such as disparate urban morphology, different data sources and standards to bridge in order to facilitate ground truth, and varying understanding of what a building is. Furthermore, the development of a method that would scale across dozens of countries is limited by computational resources. We are currently developing a method that uses several indicators derived from remote sensing, which are available on the global level, that may hint at the building completeness and would scale across the world. A regression model to predict the approximate volume of buildings in a given area is trained in areas in which there is an indication of high completeness of buildings in OSM. OSM building completeness is estimated by comparing the number of mapped buildings against their expected (predicted) amount in reality. The method has the potential to scale at a worldwide level, and completeness is estimated for a grid of resolution of approximately 1x1 square kilometres, and simultaneously for administrative regions to enable cross-country comparisons. The work is being implemented in Google Earth Engine, mostly relying on imagery and indicators such as normalised difference built-up index (NDBI) and normalised difference vegetation index (NDVI). Preliminary results suggest a substantial disparity in OSM building completeness around the world, with areas that are entirely complete to those with inadequate completeness. This presentation aims to report the progress of the ongoing work and encountered challenges in the project such as selecting indicators that are consistently available on the global level, scaling the method to the global level, accounting for different mapping practices around the world, different notions of a building, and varying morphologies of cities and urban areas. We also investigate the relation between OSM building completeness and socio-economic parameters such as GDP to understand their relationships to mapping intensity and quality. These may offer the potential to be used as additional predictors. This work is part of a broader project conducted at the Urban Analytics Lab at the National University of Singapore on investigating the potential of generating 3D city models by extruding building footprints in OpenStreetMap to a building height that is predicted using artificial intelligence. This ongoing portion of the project is the crucial first step in the project, as it will enable us to understand what is the completeness of building footprints in OpenStreetMap around the world and manage expectations about the potential coverage of 3D city models. about this event: https://pretalx.com/state-of-the-map-2020-academic-track/talk/YHEMFS/

Overview on OpenStreetMap Togo Community (sotm2020)
Jul 04 2020 25 mins  
Le Togo, l’un des plus petits pays de l’Afrique de l’Ouest abrite depuis 2013 une communauté OpenStreetMap. OSM Togo a mise en œuvre de nombreux projets mais a connu également des difficultés. Cette présentation a pour objectif de faire un aperçu sur la vie de la communauté OpenStreetMap Togo. OpenStreetMap (OSM) considered as the wikipedia of cartography is a Collaborative Mapping Project which exists in several countries around the world. So, Togo, one of the smallest countries of West Africa, has been hosting for more than five years a strong and dynamic OSM community called OpenStreetMap Togo. Several activities, mainly mapathon sessions, mapping parties, and capacity building trainings have been carried out through several projects for various target groups including students, public institutions, civil society organizations, and companies in order to promote the OSM project and to have a quality data on Togo. Highlights of these projects are: "Digital mapping OpenStreetMap as lever for local development in Togo", “GirlsMap, a gender-oriented project implemented in several African countries”, “G roads project (mapping of mainly roads of Togo)”, and “mapping of all pharmacy of Lomé, capital of Togo (CARTOPHARMA)”. Today, there are more than 200 local contributors who, through their actions, are making the OSM data evolve at the country level. However, like in most OSM communities in Africa and around the world, OSM Togo is sometimes constrained by several difficulties that limit the expansion of the OSM project and the production of better quality data in Togo. The objective of this presentation is to highlight the life of the OSM community in Togo, its projects, strengths, challenges and its difficulties related to quality OSM data production. about this event: https://2020.stateofthemap.org/sessions/EYMZXV/


Participatory Budgeting & Mapping with citizens and government (sotm2020)
Jul 04 2020 38 mins  
Map Kibera has been working for the past two years with some of Kenya’s county governments to create maps of their primary features and funded projects. After implementing a Participatory Budgeting process, these counties realized that without good maps it was difficult for people to not only allocate resources, but to work with citizens to identify needs and prioritize funds. Map Kibera has been assisting counties to map key features and projects in OSM by working with youth from the local communities. The maps not only serve to connect citizens to the budgeting process and hold county government accountable for the funded projects, but, they have also become central to county functions in all areas. This talk will share all about the process used and outcomes. Map Kibera has been helping communities map out their local projects by collecting data and creating digital maps that they can use for planning and decision making. The Participatory Budget Mapping project was conducted in 3 counties in Kenya: West Pokot, Baringo and Makueni. These counties had already been part of an annual process of participatory budgeting, with locals weighing in on how budgets should be spent in their counties. In early 2018, Map Kibera along with partner GroundTruth Initiative began working with the World Bank in Kenya to initiate Community Participatory Mapping, by training the local citizens on how to map their county-funded projects using OpenStreetMap, Open Data Kit, and Kobo Toolbox. The project also enabled citizens to track the progress and quality of those projects, allowing them to hold the government accountable for delivering what had been promised during the budgeting sessions. The results of the mapping are displayed on a dedicated website and printed maps for budgeting sessions, which often take place in rural villages. The project has been able to: 1. Visualize existing and/or new government-funded (county and national level) development projects which will enable the counties to know which projects have been completed, which are in progress and the projects that are pending. 2. Perform a needs assessment analysis through the Participatory Budget meetings where the counties engage the citizens and together determine the distributions of the projects. 3. Assist citizens to monitor progress of projects and hold the government accountable for delivering on its promises. 4. Transfer knowledge of mapping in OSM to county government representatives directly, in offices of M&E, GIS, ICT, and Budgeting. Using OpenStreetMap and sharing the data with the counties is a huge milestone for Map Kibera as this will encourage more institutions and people using OpenStreetMap within both communities and county government. This session will share the process and tools being used in the project and early outcomes. about this event: https://2020.stateofthemap.org/sessions/LDGZ37/



Economy, Human, and Policy Impact on Mapping in Public Sector (sotm2020)
Jul 04 2020 26 mins  
This talk is based on the experiences I faced while working with the public sector on mapping and try to identify some of the impacts that made and answering 3 questions which arise: * How much Money should I spend? * How much Accuracy do I need? * How much Human Involvement? In this talk, I will be explaining experiences faced while working on some of the major projects in public sector related to FOSSGIS and where all we could implement OSM into. Some of the major projects are as: ##### Utility mapping of State Electricity Board: Comprehensive solution for mapping was developed for Kerala State Electricity Board. The solution included a. Mobile field survey and mapping tool b. Map editor for post production and drawing c. Map viewer d. Map printing e. various intermediate data processing and conversion tools. Complete tool chain was designed and field tested. KSEB used our approach to map 11Kv electric poles of distribution department. This covered around 14 Lakhs electric poles. The original cost estimate for the work by KSEB using traditional approach and proprietary systems was around Rs 200 crores. Technological solution developed by ICFOSS will dramatically reduce cost of mapping and lead to substantial saving of public exchequer. The benefit through utilisation of the map data like electricity loss minimisation and quality improvement is also to be noted. For the original price, work would not have happened. The entire process was based on technologies and standards around OpenStreetMap. ##### Participatory mapping of Govt. Offices Government of Kerala aims to build a spatial database of whole Kerala based on OpenStreetMap. A participatory model was planned for the field survey and the execution was planned in different phases; Government Institutions mapping, Road and Waterways mapping, etc. As preliminary phase, govt. Offices mapping was done by developing an HTML5 based Laravel web application. And this will be later on validated and uploaded to OSM. ##### Route analysis for Govt. Fiber Optic Network A dedicated Optic Fibre Network (Kerala state Fibre Optic Network) connecting 30000 of Government Institutions including schools and other departments was planned. Substations of KSEB (Kerala State Electricity Board) across the state were chosen to create the backbone network installing PoPs (Point of Presence) at each substation. As part of the planning phase, total length of fibre cable required was to be found. Based on GIS based routing techniques and derived methodologies, cluster of networks and total length estimate were identified. ##### Canal digitisation within 42 sq.km. paddy area Government of Kerala aims to map canal system within Thrissur Kole Wetlands an area of around 4300 hectares to measure total water holding capacity of the system. A drone based aerial survey model was planned for the data collection and further digitisation and volume measurements were done using OpenDroneMap and OpenStreetMap based toolchain. about this event: https://2020.stateofthemap.org/sessions/3DMDQK/

Drones for Community Mapping (sotm2020)
Jul 04 2020 26 mins  
Drone technology is an evolving industry used in multi-disciplinary fields ranging from agriculture, marine conservation to real estate and films. There’s so much potential and possibilities on what drones could help people making work faster and more efficient. In mapping, aerial imagery uploaded to Open Aerial Map can be used as basemap for OSM editing. Example cases are in Batad Rice Terraces, UNESCO Heritage site for mapping tangible changes in the community over time and create a tourism map and other small urban communities in the Philippines, aerial imagery was used for mapathons and community mapping done in OSM. This talk is about sharing my experience as a drone pilot here in the Philippines and what contributions in OSM it can do if given more opportunity in the future to fly drones in remote areas in the Philippines. Only 8% of certified drone pilots in the Philippines are women. It’s been my advocacy to encourage women to be drone pilots. In Batad Rice Terraces, a UNESCO world heritage site, there has been a massive influx of tourists coming to visit. Using a drone, I was able to acquire high-resolution imagery in 2019 for the community. The research team was able to use the image to detect tangible changes in the rice fields and houses are no longer built traditionally (from coconut trees and lumber to cement and galvanized iron sheets). The image, DTM, and DSM were uploaded in Open Aerial Map and been used in OSM as a base map to map out the recent community. Other OSM PH drone imagery collection initiatives area in urban areas such as Lupang Arenda in Taytay, Rizal, and Downtown, Dumaguete. The images acquired from these areas were uploaded as well in OAM and used as base maps in the local community efforts to map out their city and small mapathons conducted in Manila. about this event: https://pretalx.com/sotm2020/talk/8JQ7PY/

Health Facilities Import (sotm2020)
Jul 04 2020 29 mins  
The talk is to basically share the experience of working with Imports of Health Facilities in India (OpenGovernmentData). We planned to go briefly through the background of Open GovernmentData and the countries following the OGD, along with the compatibility of OdBL for the datasets they provide to the public. The main purpose of the import is to provide accessible data of accurate health care information from the Open Government Data directories for Hospitals, Health facilities, Blood banks, Health Centers and Health Clinics information which can be useful for all the people and also the Humanitarian team in India. The primary focus of the talk is the import process from data preparation to the execution which includesImports Guidelines , Data Cleanup, Data transformation, Data Execution. The talk shares the detailed stats of the - Indian Health facilities OSM map data coverage before & after Imports and our survey experience for collecting the health facilities records in our region - Telangana. We also line up with the Survey experience to collect the Health facilities records and conducted OSM awareness programmes. Conclude the session with the future plan and local community support. We RMSI Team is performing the imports of Healthfacilities in India for OpenGovernmentData. We want to share the experience working on our successful imports from planning to importing the data. Also want to share the usage of Open Government Data and the other countries who are following the same. In total we have 190k+ records in the datasets which have been provided by the government of India and among them 46k+ are already on OSM. he talk is to basically share the experience of working with Imports of Health Facilities in India (OpenGovernmentData). https://wiki.openstreetmap.org/wiki/India_Health_Facilities_Import The main purpose of the import is to provide accessible data of accurate health care information from the Open Government Data directories for Hospitals, Health facilities, Blood banks, Health Centers and Health Clinics information which can be useful for all the people and also the Humanitarian team in India. The primary focus of the talk is the import process from data preparation to the execution which includesImports Guidelines , Data Cleanup, Data transformation, Data Execution. The talk shares the detailed stats of the - Indian Health facilities OSM map data coverage before & after Imports and our survey experience for collecting the health facilities records in our region - Telangana. The talk is totally based on the knowledge sharing on Imports and how to improve the base map data in India. about this event: https://pretalx.com/sotm2020/talk/9L7U83/

4 County OSM Digitization Liberia – Lesson Learned (sotm2020)
Jul 04 2020 19 mins  
Last year, HOT collaborated with OSM Liberia and iLab Liberia to complete the mapping and perform quality assurance in four counties in Liberia. The objective of this program is to update OpenStreetMap data to assist with a Social Registry data collection in four counties in Liberia: Bomi, Bong, Nimba and Maryland. Buildings and roads are the entities to map for this program. The Government of Liberia is working on building an effective social protection by implementing a Liberia Household Social Registry (LHSR). The data collection for this Liberia Household Social Registry (LHSR) requires house-to-house visits. To ensure that the data intake questionnaire is administered to all households, updated map is needed since it’s last updated in 2008. HOT collaborated with OSM Liberia and iLab Liberia to complete the mapping and perform quality assurance in four counties in Liberia. The objective of this program is to update OpenStreetMap data to assist with a Social Registry data collection in four counties in Liberia: Bomi, Bong, Nimba and Maryland. Buildings and roads are the entities to map for this program. The mapping itself is done by local university students. After completed mapping all four counties, they perform data validation using JOSM. Then, the data is being validated again by OSM Liberia, iLab Liberia and HOT ID. Lessons learned from this digitization program are: - First, it’s really great to involve local mappers because they have local knowledge especially on mapping roads. The road’s classification in Africa is quite different, they even have their own OSM Wiki Page. - Second, it’s really useful to review the works of mappers while they’re mapping, so that we can point out if there is any mistake. We can also make a guideline out of this mistake we found, so that they don’t do it again in the future. - Last, it’s better to make new mappers get familiar with mapping first before jumping to data validation. The longer duration of mapping, the better validator they would become. Though it can be helped by providing a validation guideline, it’s better for them to understand the do’s and the dont’s, what’s right or wrong, what’s supposed to do and not to do when mapping basic objects like buildings and roads. To grasp this level of understanding requires some time of mapping. We still find warnings, errors, conflicts and unfixed geometry in the tasks validated by local university students. Yes, this world would be better if there are more validators, but it takes some mapping time to be a good validator, to understand what needs to be corrected and what’s not. about this event: https://pretalx.com/sotm2020/talk/KDXFHZ/










Effizient arbeiten mit Architecture Decision Records (ADR) (bobkonf2020)
Feb 28 2020 46 mins  
Dokumentation gehört oft nicht zu den Lieblingsaufgaben im Softwareentwicklungsalltag. Das resultiert in vielen Fällen daraus, da nicht klar ist, warum etwas dokumentiert werden sollte. Der in der Praxis gelebte Ansatz einen Dokumentationsort, zum Beispiel in Form eines Wikis, ist zum Scheitern verurteilt. Entweder es wird kaum dokumentiert oder zu viel und es wird schwer Informationen zu finden, die man sucht. Ein leichtgewichtiger Ansatz ist arc42, bei dem je nach Bedarf die vorgegebenen Unterpunkte ausgefüllt werden. Dort werden im Unterpunkt neun Entwurfsentscheidungen dokumentiert, also genau die Entscheidungen, die die Softwarearchitektur entscheidend prägen. Die Auswirkungen von nicht dokumentierten Entscheidungen gehen von immer wiederkehrenden Diskussionen, bis hin zu fehlerhaften Folgeentscheidungen die das Projekt zum Scheitern bringen können. Doch wie können viele Entscheidungen effizient und nachvollziehbar dokumentiert werden? In diesem Vortrag wird ein kompaktes Format namens Architecture Decision Records (ADR) vorgestellt und gezeigt, wie sie effizient eingesetzt werden können. Neben Kleinigkeiten wie der Titelvergabe für eine ADR wird ein Lösungsvorschlag aufgezeigt, um bei einer großen Sammlung von Entwurfsentscheidungen (50) nicht den Überblick zu verlieren. Dabei kommt der Docs-As-Code Ansatz mit AsciiDoc und JBake zum Einsatz, mit dem die technische Architektur in einer Microsite gerendert wird. Durch Tagging und eine effiziente Suche, wird die Dokumentation nicht nur lebendig, sondern zum täglichen Arbeitsmittel. about this event: https://bobkonf.de/2020/dienst.html


























Anonymisierung von personenbezogenen Daten (dgwk2020)
Feb 22 2020 57 mins  
Ein wesentlicher Bestandteil moderner Anwendungen in der Welt der digitalen Transformation ist die Analyse von Daten und die Anwendung moderner Machine- und Deep-Learning-Methoden. Begleitend - und oft entscheidend für den Erfolg - findet in allen Bereichen eine immer extensivere Datensammlung statt. Viele der interessantesten Anwendungen, welche uns als Einzelnen indirekt oder direkt betreffen, beinhalten auch die Sammlung und Verarbeitung personenbezogener Daten, vor allem von Mikrodaten (nicht-aggregierter Information). Seit den ersten Datenschutzskandalen in den 90er Jahren weiss auch der Gesetzgeber, dass das Entfernen oder Pseudoanonymisieren direkt identifizierender Attribute wie Namen, Adressen und AHV Nummern in der Regel nicht ausreicht, um Datenschutzverletzungen zu verhindern. Das Kernkonzept der Datenanonymisierung besteht darin, Daten so zu transformieren, dass Re-Identifizierungsrisiken von Personen verringert werden, wobei die Verringerung der Risiken gegen eine Verringerung des Datennutzens abgewogen wird (de-fakto Anonymität). Dies ist eine komplexe Aufgabe welche die Anwendung und Entwicklung komplexer Methoden benötigt. Es sind formalere Ansätze erforderlich, bei denen mathematische und statistische Modelle zur Quantifizierung der Risiken und der Auswirkungen der Anonymisierung auf die Datennutzung verwendet werden. Darüber hinaus müssen komplexe Algorithmen eingesetzt werden, um einerseits das Risiko zu senken und andererseits die Datenqualität und das Analysepotential und die Forschungsfragen nicht zu einzuschränken. Möglichkeiten und Grenzen von Anonymisierung als auch Techniken der Risikoschätzung und Anonymisierung von Mikrodaten (nicht-aggregierte Daten) werden überblicksmässig und allgemein verständlich vorgestellt. Nicht Bestandteil oder nur sehr kleiner Anteil des Vortrages sind Methoden zur Geheimhaltung aggregierter Daten und Pseudoanonymisierung. Ein wesentlicher Bestandteil moderner Anwendungen in der Welt der digitalen Transformation ist die Analyse von Daten und die Anwendung moderner Machine- und Deep-Learning-Methoden. Begleitend - und oft entscheidend für den Erfolg - findet in allen Bereichen eine immer extensivere Datensammlung statt. Viele der interessantesten Anwendungen, welche uns als Einzelnen indirekt oder direkt betreffen, beinhalten auch die Sammlung und Verarbeitung personenbezogener Daten, vor allem von Mikrodaten (nicht-aggregierter Information). Seit den ersten Datenschutzskandalen in den 90er Jahren weiss auch der Gesetzgeber, dass das Entfernen oder Pseudoanonymisieren direkt identifizierender Attribute wie Namen, Adressen und AHV Nummern in der Regel nicht ausreicht, um Datenschutzverletzungen zu verhindern. Das Kernkonzept der Datenanonymisierung besteht darin, Daten so zu transformieren, dass Re-Identifizierungsrisiken von Personen verringert werden, wobei die Verringerung der Risiken gegen eine Verringerung des Datennutzens abgewogen wird (de-fakto Anonymität). Dies ist eine komplexe Aufgabe welche die Anwendung und Entwicklung komplexer Methoden benötigt. Es sind formalere Ansätze erforderlich, bei denen mathematische und statistische Modelle zur Quantifizierung der Risiken und der Auswirkungen der Anonymisierung auf die Datennutzung verwendet werden. Darüber hinaus müssen komplexe Algorithmen eingesetzt werden, um einerseits das Risiko zu senken und andererseits die Datenqualität und das Analysepotential und die Forschungsfragen nicht zu einzuschränken. Möglichkeiten und Grenzen von Anonymisierung als auch Techniken der Risikoschätzung und Anonymisierung von Mikrodaten (nicht-aggregierte Daten) werden überblicksmässig und allgemein verständlich vorgestellt. Nicht Bestandteil oder nur sehr kleiner Anteil des Vortrages sind Methoden zur Geheimhaltung aggregierter Daten und Pseudoanonymisierung. about this event: https://files.chvoc.ch/dgwk20/

Silicon Valley zieht in den Krieg: KI, autonome Waffen und politisch-moralische Verkümmerung (fiffkon19)
Nov 22 2019 33 mins  
Die Autonomie in militärischen Waffensystemen hat in den letzten zehn Jahren stetige Fortschritte gemacht. Eine Reihe von Ländern einschließlich der USA, Großbritanniens, Chinas und Russlands, entwickeln, besitzen und / oder nutzen militärische Systeme, von denen zu diesem Zeitpunkt angenommen werden kann, dass sie über ein bestimmtes Maß an Autonomie und Künstlicher Intelligenz verfügen. Die Idee, die technologische Autonomie in der Kriegsführung auszubauen, ist keineswegs neu. Günther Anders, ein früher Denker der Mensch-Maschine-Interaktion, schreibt 1956 über den Einsatz eines „elektronischen Gehirns“ - einer technologischen Rechenmaschine, die im Kontext des Koreakrieges eine moralisch schwierige Entscheidung mit scheinbarer Objektivität treffen könnte. Anders stand einer solchen Maschinenagentur äußerst kritisch gegenüber und warnte, dass die Übertragung von moralisch bedeutsamen Entscheidungen auf die Militärtechnologie eine klare Abkehr von der moralischen Verantwortung des Menschen darstellt, wobei das Unbehagen bei schwierigen Entscheidungen in der Kriegsführung durch technologische Effizienz und angebliche Neutralität beseitigt wird. Anders Diagnose, die im selben Jahr veröffentlicht wurde als der Begriff „Artificial Intelligence“ (KI) geprägte wurde, erwies sich als prophetisch. Obwohl seine Erkenntnisse in erster Linie auf die rasanten Befürchtungen und Aufregungen über Innovationen in der Computertechnologie - zivil und militärisch - in seiner Zeit zurückzuführen sind, finden sie deutliche Resonanz in der heutigen Diskussion über neue militärische Technologien und insbesondere in den Debatten um autonome und intelligent Waffensysteme. Dieser Vortrag setzt sich mit den Auswirkungen von KI als Ersatz für menschliche Entscheidungen in moralisch relevanten Kontexten politischer und militärischer Natur auseinander und nimmt die politische und ethische Handlungsfähigkeit im Bezug auf zunehmend allgegenwärtiger KI kritisch unter die Lupe. about this event: https://2019.fiffkon.de/program/events/5.html

Prototype Fund: Demokratie programmieren (dgwk2020)
Feb 22 2020 28 mins  
Dieser Vortrag stellt den neuen Prototype Fund Schweiz vor. In der Schweiz fehlt es an niederschwelligen Finanzierungen für Civic Tech Projekte. Der Prototype Fund Schweiz füllt diese Finanzierungslücke: er fördert digitale Lösungsansätze im Bereich der demokratischen Mitwirkung. Der Prototype Fund unterstützt die Entwicklung von der Projektskizze hin zum Prototypen mit open source Code. Die Projektideen werden mit bis zu 100’000 CHF pro Projektidee und bedarfsorientierten Coaching Massnahmen unterstützt. Wir werden dem Schweizer Publikum in diesem Vortrag zum ersten Mal das Konzept des Prototype Fund vorstellen. Zudem werden wir in der Präsentation auf die Herausforderungen von Civic Tech in der Schweiz eingehen und aufzeigen, wie der Prototype Fund Finanzierungslücken in der Schweizer Civic Tech Landschaft füllen möchte. Schliesslich beleuchten wir die bisherigen Erfahrungen mit Prototyping Programmen im Public Interest Tech Bereich in Deutschland, insbesondere jene der Open Knowledge Foundation. Der Prototype Fund in der Schweiz ist ein eigenständiges Projekt, aber wir sind im engen Austausch mit dem Prototype Fund Deutschland. Der Prototype Fund wird dreimal eine jährliche Förderungsrunde durchführen. Die Bewerbungsphase für die erste Förderungsrunde dauert von Mitte März bis Mitte Mai 2020. Die Prototypen-Phase startet Anfang September 2020 und endet Anfang März 2021. Der Prototype Fund wird vom Verein opendata.ch geleitet und von der Mercator Stiftung Schweiz unterstützt. Dieser Vortrag stellt den neuen Prototype Fund Schweiz vor. In der Schweiz fehlt es an niederschwelligen Finanzierungen für Civic Tech Projekte. Der Prototype Fund Schweiz füllt diese Finanzierungslücke: er fördert digitale Lösungsansätze im Bereich der demokratischen Mitwirkung. Der Prototype Fund unterstützt die Entwicklung von der Projektskizze hin zum Prototypen mit open source Code. Die Projektideen werden mit bis zu 100’000 CHF pro Projektidee und bedarfsorientierten Coaching Massnahmen unterstützt. Wir werden dem Schweizer Publikum in diesem Vortrag zum ersten Mal das Konzept des Prototype Fund vorstellen. Zudem werden wir in der Präsentation auf die Herausforderungen von Civic Tech in der Schweiz eingehen und aufzeigen, wie der Prototype Fund Finanzierungslücken in der Schweizer Civic Tech Landschaft füllen möchte. Schliesslich beleuchten wir die bisherigen Erfahrungen mit Prototyping Programmen im Public Interest Tech Bereich in Deutschland, insbesondere jene der Open Knowledge Foundation. Der Prototype Fund in der Schweiz ist ein eigenständiges Projekt, aber wir sind im engen Austausch mit dem Prototype Fund Deutschland. Der Prototype Fund wird dreimal eine jährliche Förderungsrunde durchführen. Die Bewerbungsphase für die erste Förderungsrunde dauert von Mitte März bis Mitte Mai 2020. Die Prototypen-Phase startet Anfang September 2020 und endet Anfang März 2021. Der Prototype Fund wird vom Verein opendata.ch geleitet und von der Mercator Stiftung Schweiz unterstützt. about this event: https://files.chvoc.ch/dgwk20/

Digital integrity of the human person, proposal for a new fundamental right (dgwk2020)
Feb 22 2020 32 mins  
Every human evolves today in multi-dimensional physical and digital environment. If each individual is to keep its individuality and autonomy in its daily choices, it must be protected and given effective tools to defend its own autonomy. Recognizing that human life has been digitally extended must question ourselves on what makes us human today. Should personal data be considered as component of the person, rather than objects that can be owned by whoever collects that data? Should our digital integrity be protected? If each human person already has a right to physical and mental integrity (Swiss Constitution article 10 al.2), shouldn't it have a right to digital integrity? This talk will introduce this new legal concept, its possible implications for data protection and how this concept could be introduced in the current legal framework. Every human evolves today in multi-dimensional physical and digital environment. If each individual is to keep its individuality and autonomy in its daily choices, it must be protected and given effective tools to defend its own autonomy. Recognizing that human life has been digitally extended must question ourselves on what makes us human today. Should personal data be considered as component of the person, rather than objects that can be owned by whoever collects that data? Should our digital integrity be protected? If each human person already has a right to physical and mental integrity (Swiss Constitution article 10 al.2), shouldn't it have a right to digital integrity? This talk will introduce this new legal concept, its possible implications for data protection and how this concept could be introduced in the current legal framework. about this event: https://files.chvoc.ch/dgwk20/

Debunkingstrategien gegen Fake-News im Internet (dgwk2020)
Feb 22 2020 32 mins  
Die Entwicklung evidenzbasierter Empfehlungen, wie Fake-News und Mythen angemessen in der Online-Kommunikation entlarvt werden können (Debunking) und der Glaube an diese minimiert werden kann, ist nicht nur für jede/n Einzelne/n wichtig, sondern für die gesamte Gesellschaft. Der mediale Wandel führt durch Digitalisierung, Differenzierung, Komplexitätssteigerung und Omnipräsenz zu einer Neufiguration der Kommunikations- und Informationsprozesse. Die Akteure der digitalen Kommunikation werden heterogener und wir finden im Internet auch öffentliche, einseitig interessensgeleitete Kommunikation. Bei den kommunikativen Praktiken zeigt sich dann, dass mehr Raum für Informationen jeglicher Art ist. Auch deswegen halten sich Mythen und Fake-News selbst im Informationszeitalter des Internets, obwohl evidenzbasierte, wissenschaftliche Informationen und Fachartikel sowie qualitative journalistische Debunkingbeiträge hier potentiell leicht zugänglich sind. Im Alltag haben die Menschen jedoch wenig Zeit, kognitive Ressourcen und/oder Motivation komplexe Themen wie wissenschaftliche oder medizinische Erkenntnisse zu verstehen. Deshalb kommt es häufig zu fehlerhaftem Wissen. Diese Fake-News, Mythen, Missverständnisse sind dann relativ stabil im Kopf der Menschen verankert und schwer zu beseitigen. Es benötigt mitunter spezielle Debunking-/Entlarvungsstrategien einmal verankerte Mythen zu korrigieren. Normativ wünschenswert ist dabei, nicht erst seit einer weltweiten Fake-News-Debatte, Falsch-Nachrichten und Mythen effektiv bekämpfen zu können, welche bspw. vom Weltwirtschaftsforum als eine der Hauptbedrohungen für unsere Gesellschaft eingestuft wurden. Geplant ist es im Vortrag Strategien, wie online-verbreitete Fake-News effektiv widerlegt werden können, aus der psychologischen und kommunikationswissenschaftlichen Forschung zu identifizieren. Dabei werden aktuelle Studien sowie praktische Beispiele aufgezeigt und diskutiert. Die Entwicklung evidenzbasierter Empfehlungen, wie Fake-News und Mythen angemessen in der Online-Kommunikation entlarvt werden können (Debunking) und der Glaube an diese minimiert werden kann, ist nicht nur für jede/n Einzelne/n wichtig, sondern für die gesamte Gesellschaft. Der mediale Wandel führt durch Digitalisierung, Differenzierung, Komplexitätssteigerung und Omnipräsenz zu einer Neufiguration der Kommunikations- und Informationsprozesse. Die Akteure der digitalen Kommunikation werden heterogener und wir finden im Internet auch öffentliche, einseitig interessensgeleitete Kommunikation. Bei den kommunikativen Praktiken zeigt sich dann, dass mehr Raum für Informationen jeglicher Art ist. Auch deswegen halten sich Mythen und Fake-News selbst im Informationszeitalter des Internets, obwohl evidenzbasierte, wissenschaftliche Informationen und Fachartikel sowie qualitative journalistische Debunkingbeiträge hier potentiell leicht zugänglich sind. Im Alltag haben die Menschen jedoch wenig Zeit, kognitive Ressourcen und/oder Motivation komplexe Themen wie wissenschaftliche oder medizinische Erkenntnisse zu verstehen. Deshalb kommt es häufig zu fehlerhaftem Wissen. Diese Fake-News, Mythen, Missverständnisse sind dann relativ stabil im Kopf der Menschen verankert und schwer zu beseitigen. Es benötigt mitunter spezielle Debunking-/Entlarvungsstrategien einmal verankerte Mythen zu korrigieren. Normativ wünschenswert ist dabei, nicht erst seit einer weltweiten Fake-News-Debatte, Falsch-Nachrichten und Mythen effektiv bekämpfen zu können, welche bspw. vom Weltwirtschaftsforum als eine der Hauptbedrohungen für unsere Gesellschaft eingestuft wurden. Geplant ist es im Vortrag Strategien, wie online-verbreitete Fake-News effektiv widerlegt werden können, aus der psychologischen und kommunikationswissenschaftlichen Forschung zu identifizieren. Dabei werden aktuelle Studien sowie praktische Beispiele aufgezeigt und diskutiert. about this event: https://files.chvoc.ch/dgwk20/


Keine IT-Sicherheit ohne Freie Software (dgwk2020)
Feb 22 2020 60 mins  
IT-Sicherheit ist eines der wichtigsten globalen Themen der letzten Jahre. Doch außer der Gründung von "Cybersecurity"-Behörden fällt der Politik nicht viel ein. Dabei kann Freie Software die Lösung für viele drängende Sicherheitsprobleme sein. Wir schauen uns Vor- und Nachteile an und beleuchten anhand konkreter Beispiele, warum Sicherheit und Offenheit kein Widerspruch ist. Trojaner legen Krankenhäuser lahm und wegen Sicherheitsbedenken bei Huawei kommt der 5G-Ausbau weltweit ins Stocken. Mit der IT-Sicherheit ist einiges im Argen, was auch die inflationär entstehenden "Cybersecurity"-Behörden und -Zentren beweisen. Doch erst seit Kurzem wird die Wichtigkeit Freier- und Open-Source-Software für Sicherheit auch außerhalb der engsten IT-Szene bekannt. Freie Software ist eine wichtige Komponente von IT-Sicherheit. Allerdings lehrt die Erfahrung, dass nicht allein die Lizenz kritische Programmierfehler und Designschwächen behebt. Max Mehl zeigt deswegen in diesem Vortrag, wie und in welcher Form Freie Software für ein Plus an Sicherheit sorgen kann und warum es so wichtig ist, das so schnell wie möglich auch EntscheidungsträgerInnen begreiflich zu machen. Doch wo Licht ist, ist auch Schatten. Der Vortrag geht daher ebenfalls auf potenzielle Nachteile und Abwägungsfälle sowie auf typische Gegenargumente ein. IT-Sicherheit ist eines der wichtigsten globalen Themen der letzten Jahre. Doch außer der Gründung von "Cybersecurity"-Behörden fällt der Politik nicht viel ein. Dabei kann Freie Software die Lösung für viele drängende Sicherheitsprobleme sein. Wir schauen uns Vor- und Nachteile an und beleuchten anhand konkreter Beispiele, warum Sicherheit und Offenheit kein Widerspruch ist. Trojaner legen Krankenhäuser lahm und wegen Sicherheitsbedenken bei Huawei kommt der 5G-Ausbau weltweit ins Stocken. Mit der IT-Sicherheit ist einiges im Argen, was auch die inflationär entstehenden "Cybersecurity"-Behörden und -Zentren beweisen. Doch erst seit Kurzem wird die Wichtigkeit Freier- und Open-Source-Software für Sicherheit auch außerhalb der engsten IT-Szene bekannt. Freie Software ist eine wichtige Komponente von IT-Sicherheit. Allerdings lehrt die Erfahrung, dass nicht allein die Lizenz kritische Programmierfehler und Designschwächen behebt. Max Mehl zeigt deswegen in diesem Vortrag, wie und in welcher Form Freie Software für ein Plus an Sicherheit sorgen kann und warum es so wichtig ist, das so schnell wie möglich auch EntscheidungsträgerInnen begreiflich zu machen. Doch wo Licht ist, ist auch Schatten. Der Vortrag geht daher ebenfalls auf potenzielle Nachteile und Abwägungsfälle sowie auf typische Gegenargumente ein. about this event: https://files.chvoc.ch/dgwk20/

Was Vorratsdaten verraten (dgwk2020)
Feb 22 2020 52 mins  
Sechs Monate – so lange zurück müssen Schweizer Mobilfunkprovider Daten über unser Kommunikationsverhalten speichern. Diese sogenannten Rand- oder Metadaten verraten nicht wenig über unser Leben: Mit wem wir wie lange und wie oft telefoniert oder gesimst haben – und wo wir wann waren. Das «Wo» in Kombination mit dem «Wann» ist für Strafverfolger besonders interessant: Damit lassen sich Verdachte erhärten oder ausräumen, es lassen sich Bewegungsprofile bilden und weitere Ermittlungen erst ermöglichen. Gleichzeitig bedeutet natürlich schon nur die Speicherung dieser Daten ein grundlegender Eingriff in unsere Privatsphäre. Das sagt auch das Bundesgericht, das aber weiterhin an der Speicherung der Daten festhalten will (BGer 1C_598/2016 vom 2. März 2018). Dank dem Urteil ist es nun aber wenigstens möglich, Einblick in seine Vorratsdaten zu erhalten. Timo Grossenbacher (SRF) hat im Zuge einer Recherche Einblick in mehrere Vorratsdatensammlungen erhalten und diese ausgewertet. In seinem Vortrag zeigt er, wie er dabei vorgegangen ist, welche Schlüsse man aus den Daten ziehen kann, wo Vorsicht geboten ist und welche Fragen offen bleiben. Sechs Monate – so lange zurück müssen Schweizer Mobilfunkprovider Daten über unser Kommunikationsverhalten speichern. Diese sogenannten Rand- oder Metadaten verraten nicht wenig über unser Leben: Mit wem wir wie lange und wie oft telefoniert oder gesimst haben – und wo wir wann waren. Das «Wo» in Kombination mit dem «Wann» ist für Strafverfolger besonders interessant: Damit lassen sich Verdachte erhärten oder ausräumen, es lassen sich Bewegungsprofile bilden und weitere Ermittlungen erst ermöglichen. Gleichzeitig bedeutet natürlich schon nur die Speicherung dieser Daten ein grundlegender Eingriff in unsere Privatsphäre. Das sagt auch das Bundesgericht, das aber weiterhin an der Speicherung der Daten festhalten will (BGer 1C_598/2016 vom 2. März 2018). Dank dem Urteil ist es nun aber wenigstens möglich, Einblick in seine Vorratsdaten zu erhalten. Timo Grossenbacher (SRF) hat im Zuge einer Recherche Einblick in mehrere Vorratsdatensammlungen erhalten und diese ausgewertet. In seinem Vortrag zeigt er, wie er dabei vorgegangen ist, welche Schlüsse man aus den Daten ziehen kann, wo Vorsicht geboten ist und welche Fragen offen bleiben. about this event: https://files.chvoc.ch/dgwk20/



Künstliche Korrespondenz: Wie man nichtmenschliche Schreiberlinge entlarvt (dgwk2020)
Feb 22 2020 59 mins  
Sie heissen Grover, Bert oder GPT-2 – und können Texte produzieren, die auf den ersten Blick nicht als maschinelle zu erkennen sind. Statistische Sprachmodelle waren einst trockenste Materie. Jetzt haben sie sich dank Big Data, spezialisierter Hardware und genialer Algorithmen zu einem Lieblingsthema der Feuilletons gemausert. Die verblüffendsten Erfolge sind im englischen Sprachraum zu verzeichnen. Doch das Rad der Forschung dreht sich so schnell, dass es nur Monate dauern dürfte, bis sie die deutsche Sprache erreicht haben. Und dann? Werden unsere Demokratien geflutet durch Gigabytes von Fake News und fingierten Nutzerkommentaren? In diesem Workshop werfen wir einen Blick unter die Haube dieser Maschinen. Wir versuchen nachzuvollziehen, wie sie technisch möglich geworden sind und wo ihre Grenzen liegen. Noch lassen sich die Schreiberlinge mit ihren eigenen Waffen schlagen – denn auch sie hinterlassen ihre linguistischen Spuren... Sie heissen Grover, Bert oder GPT-2 – und können Texte produzieren, die auf den ersten Blick nicht als maschinelle zu erkennen sind. Statistische Sprachmodelle waren einst trockenste Materie. Jetzt haben sie sich dank Big Data, spezialisierter Hardware und genialer Algorithmen zu einem Lieblingsthema der Feuilletons gemausert. Die verblüffendsten Erfolge sind im englischen Sprachraum zu verzeichnen. Doch das Rad der Forschung dreht sich so schnell, dass es nur Monate dauern dürfte, bis sie die deutsche Sprache erreicht haben. Und dann? Werden unsere Demokratien geflutet durch Gigabytes von Fake News und fingierten Nutzerkommentaren? In diesem Workshop werfen wir einen Blick unter die Haube dieser Maschinen. Wir versuchen nachzuvollziehen, wie sie technisch möglich geworden sind und wo ihre Grenzen liegen. Noch lassen sich die Schreiberlinge mit ihren eigenen Waffen schlagen – denn auch sie hinterlassen ihre linguistischen Spuren... about this event: https://files.chvoc.ch/dgwk20/

Die Ethik Freier Software – Missverständnisse ausräumen (dgwk2020)
Feb 22 2020 56 mins  
Der Vortrag will ein besseres Verständnis dafür schaffen, worum es bei Freier Software geht; sowohl für Menschen, die neu in das Thema einsteigen, als auch für Menschen, die schon seit langem dazu beitragen. Müssen wir, wenn wir Freie Software entwickeln dies mit einem offenen Entwicklungsmodell machen oder einem bestimmten Geschäftsmodell folgen? Müssen wir wenn wir für Freie Software sind Sozialismus, Kapitalismus oder Liberalismus gut finden; oder uns auf bestimmte Positionen zum Datenschutz, zu Nachrichtendiensten und Militär, zur Klimakatastrophe, Kernkraft, Impfen oder Tierrechten einigen? Oder müssen wir diesbezüglich mehr Respekt und Vielfalt zulassen? Ich werde die historischen Grundwerte der Freien-Software-Bewegung erklären: 1) Dass alle, unabhängig vom Hintergrund, die Software für jeden Zweck ohne Diskriminierung verwenden dürfen. 2) Dass alle verstehen dürfen, wie Software funktioniert. 3) Dass alle die Software immer verbreiten dürfen, entweder um einem anderen Menschen zu helfen oder um Geld zu verdienen. 4) Und dass keine Person, Organisation oder Regierung gezwungen werden sollte, ihr Verhalten wegen der Software zu ändern, sondern die Software verändern kann und dadurch die Software für sich und andere verbessern kann. Im Laufe der Zeit gab es viele Versuche, andere Werte hinzuzufügen. Bisher sind diese immer gescheitert. Der Vortrag soll dazu beitragen, besser zu verstehen, warum das der Fall ist. Der Vortrag will ein besseres Verständnis dafür schaffen, worum es bei Freier Software geht; sowohl für Menschen, die neu in das Thema einsteigen, als auch für Menschen, die schon seit langem dazu beitragen. Müssen wir, wenn wir Freie Software entwickeln dies mit einem offenen Entwicklungsmodell machen oder einem bestimmten Geschäftsmodell folgen? Müssen wir wenn wir für Freie Software sind Sozialismus, Kapitalismus oder Liberalismus gut finden; oder uns auf bestimmte Positionen zum Datenschutz, zu Nachrichtendiensten und Militär, zur Klimakatastrophe, Kernkraft, Impfen oder Tierrechten einigen? Oder müssen wir diesbezüglich mehr Respekt und Vielfalt zulassen? Ich werde die historischen Grundwerte der Freien-Software-Bewegung erklären: 1) Dass alle, unabhängig vom Hintergrund, die Software für jeden Zweck ohne Diskriminierung verwenden dürfen. 2) Dass alle verstehen dürfen, wie Software funktioniert. 3) Dass alle die Software immer verbreiten dürfen, entweder um einem anderen Menschen zu helfen oder um Geld zu verdienen. 4) Und dass keine Person, Organisation oder Regierung gezwungen werden sollte, ihr Verhalten wegen der Software zu ändern, sondern die Software verändern kann und dadurch die Software für sich und andere verbessern kann. Im Laufe der Zeit gab es viele Versuche, andere Werte hinzuzufügen. Bisher sind diese immer gescheitert. Der Vortrag soll dazu beitragen, besser zu verstehen, warum das der Fall ist. about this event: https://files.chvoc.ch/dgwk20/




Zur Bedeutung von Vertrauen für die digitale Demokratie (dgwk2020)
Feb 22 2020 28 mins  
Die Digitalisierung hat mittlerweile in beinahe sämtliche Bereiche unseres Lebens Einzug gehalten. Sie geht mit dem Versprechen einher, vieles einfacher und zugänglicher zu machen. So auch die Demokratie. Digitale Möglichkeiten eröffnen neue Wege, um demokratische Prozesse zu erneuern, zu verbessern und die demokratische Teilhabe zu stärken. Zu den Optionen zählen beispielsweise Plattformen für die Lancierung und Verwaltung partizipativer Verfahren, digitale Tools für das Sammeln von Unterschriften oder leicht zugängliche Informationsangebote. In der Theorie zählt auch die elektronische Stimmabgabe dazu. Nicht alle dieser Innovationen vermögen sich aber durchzusetzen. Viele scheitern noch vor ihrer Einführung: Sie sind anfällig für Sicherheitslücken oder ihre Entwicklung erweist sich als zu teuer. Bisweilen sind die Plattformen auch schlicht zu kompliziert konzipiert – oder Online-Communities werden zu Multiplikatoren extremistischer Ansichten. Erfolgs- und Misserfolgsfaktoren von Instrumenten der digitalen Demokratie sind vielfältig. Der Aspekt des Vertrauens der Nutzenden und der demokratischen Gemeinschaft als Ganze nimmt aber eine wichtige Rolle ein. Demokratie lebt vom Vertrauen in die Institutionen, ihre Organisation und die internen wie externen Kontrollmechanismen, die etwa dann zum Tragen kommen, wenn knappe Wahlausgänge – die Schweiz erlebte sie jüngst z.B. in den Kantonen Freiburg und Tessin – resultieren. Mangelndes Vertrauen in die Absichten der politischen Akteure und die Effizienz des politischen Systems wiederum ist vielerorts ein plausibler Erklärungsansatz für Stimm- bzw. Wahlabstinenz und ProtestwählerInnentum. Aber auch im Bereich der digitalen Demokratie ist Vertrauen eine wichtige Kategorie. So spielt es etwa auch in der laufenden Debatte um die E-ID eine Rolle. Unter den ethischen Fragen rund um die Digitalisierung ist jene nach Bedeutung und Implikationen von Vertrauen derzeit eine der brennendsten. Dabei gilt es, Vertrauen als eine zukunftsorientierte und kooperative Beziehung zu verstehen, die – auch zwischen abstrakten Beteiligten – auf geteilten Weltanschauungen und guten Absichten beruht. Im Rahmen des vorgeschlagenen Beitrags zum Winterkongress der digitalen Gesellschaft wird “ethix - Lab für Innovationsethik” anhand der Auseinandersetzung mit drei ausgewählten Instrumenten der digitalen Demokratie (Civic Tech-Plattformen, E-Voting, digitale Informationsvermittlung) zur Diskussion stellen, wie Vertrauen inhaltlich gefasst werden kann und weshalb es für die digitale Demokratie zentral ist. Auch wollen wir der Frage nachgehen, wie Vertrauen von Beginn an Beachtung geschenkt und wie es mit Blick auf den Einsatz digitaler Technologien und Instrumente operationalisiert werden könnte. Die Digitalisierung hat mittlerweile in beinahe sämtliche Bereiche unseres Lebens Einzug gehalten. Sie geht mit dem Versprechen einher, vieles einfacher und zugänglicher zu machen. So auch die Demokratie. Digitale Möglichkeiten eröffnen neue Wege, um demokratische Prozesse zu erneuern, zu verbessern und die demokratische Teilhabe zu stärken. Zu den Optionen zählen beispielsweise Plattformen für die Lancierung und Verwaltung partizipativer Verfahren, digitale Tools für das Sammeln von Unterschriften oder leicht zugängliche Informationsangebote. In der Theorie zählt auch die elektronische Stimmabgabe dazu. Nicht alle dieser Innovationen vermögen sich aber durchzusetzen. Viele scheitern noch vor ihrer Einführung: Sie sind anfällig für Sicherheitslücken oder ihre Entwicklung erweist sich als zu teuer. Bisweilen sind die Plattformen auch schlicht zu kompliziert konzipiert – oder Online-Communities werden zu Multiplikatoren extremistischer Ansichten. Erfolgs- und Misserfolgsfaktoren von Instrumenten der digitalen Demokratie sind vielfältig. Der Aspekt des Vertrauens der Nutzenden und der demokratischen Gemeinschaft als Ganze nimmt aber eine wichtige Rolle ein. Demokratie lebt vom Vertrauen in die Institutionen, ihre Organisation und die internen wie externen Kontrollmechanismen, die etwa dann zum Tragen kommen, wenn knappe Wahlausgänge – die Schweiz erlebte sie jüngst z.B. in den Kantonen Freiburg und Tessin – resultieren. Mangelndes Vertrauen in die Absichten der politischen Akteure und die Effizienz des politischen Systems wiederum ist vielerorts ein plausibler Erklärungsansatz für Stimm- bzw. Wahlabstinenz und ProtestwählerInnentum. Aber auch im Bereich der digitalen Demokratie ist Vertrauen eine wichtige Kategorie. So spielt es etwa auch in der laufenden Debatte um die E-ID eine Rolle. Unter den ethischen Fragen rund um die Digitalisierung ist jene nach Bedeutung und Implikationen von Vertrauen derzeit eine der brennendsten. Dabei gilt es, Vertrauen als eine zukunftsorientierte und kooperative Beziehung zu verstehen, die – auch zwischen abstrakten Beteiligten – auf geteilten Weltanschauungen und guten Absichten beruht. Im Rahmen des vorgeschlagenen Beitrags zum Winterkongress der digitalen Gesellschaft wird “ethix - Lab für Innovationsethik” anhand der Auseinandersetzung mit drei ausgewählten Instrumenten der digitalen Demokratie (Civic Tech-Plattformen, E-Voting, digitale Informationsvermittlung) zur Diskussion stellen, wie Vertrauen inhaltlich gefasst werden kann und weshalb es für die digitale Demokratie zentral ist. Auch wollen wir der Frage nachgehen, wie Vertrauen von Beginn an Beachtung geschenkt und wie es mit Blick auf den Einsatz digitaler Technologien und Instrumente operationalisiert werden könnte. about this event: https://files.chvoc.ch/dgwk20/

Freie Mailbox Verschlüsselung für Alle (dgwk2020)
Feb 22 2020 55 mins  
Datengestützte Dienstleistungen nutzen und die Souverenität über seine Daten behalten ist aktuell oftmals ein Widerspruch. Denn, die Anbieterin hat unbegrenzten und unbeaufsichtigten Zugriff auf alle unsere Daten. Dies ganz klar aus kommerziellen Interessen, aber oftmals auch einfach aus Bequemlichkeit und Nachlässigkeit. Wir finden das moralisch und technisch falsch. Deshalb haben wir für immerda.ch eine individuelle Mailboxverschlüsselung eingeführt. E-Mails auf unseren Servern sind nun mit dem Passwort der Benutzerin verschlüsselt abgelegt, sie werden erst beim Login, und nur im Zwischenspeicher entschlüsselt. Aus unserer Sicht ist dies nur ein kleiner und längst überfälliger Schritt in die richtige Richtung, wenn es darum geht, wie mit Nutzerdaten umgegangen werden sollte. Dieser Vortrag soll Dich dazu animieren, diesen Schritt auch zu gehen. Sei es als Administratorin eines Betriebs, ISP, oder einfach der Box für deine Freunde. Wir möchten aus unserer Erfahrung erläutern, was es strukturell braucht, um die Schlüssel fürs Königreich in Userhände zu legen. Welche Konsequenzen ergeben sich daraus und wie erklären wir sie den Benutzerinnen? Und natürlich, was sind die konkreten technischen Probleme und was sind unsere Lösungen. Wir haben einige der freien Möglichkeiten zur Mailboxverschlüsselung evaluiert. Selber benutzen wir mail_crypt von Dovecot, sowie eine selbst entwickelte Lösung zur Schlüsselverwaltung -- selbstverständlich alles freie Software. Unser Fazit ist, Daten von Dritten gehören nicht Adminzugänglich auf die Platte! Alles andere ist Gier, Faulheit, oder eine gute Gelegenheit es besser zu machen. Datengestützte Dienstleistungen nutzen und die Souverenität über seine Daten behalten ist aktuell oftmals ein Widerspruch. Denn, die Anbieterin hat unbegrenzten und unbeaufsichtigten Zugriff auf alle unsere Daten. Dies ganz klar aus kommerziellen Interessen, aber oftmals auch einfach aus Bequemlichkeit und Nachlässigkeit. Wir finden das moralisch und technisch falsch. Deshalb haben wir für immerda.ch eine individuelle Mailboxverschlüsselung eingeführt. E-Mails auf unseren Servern sind nun mit dem Passwort der Benutzerin verschlüsselt abgelegt, sie werden erst beim Login, und nur im Zwischenspeicher entschlüsselt. Aus unserer Sicht ist dies nur ein kleiner und längst überfälliger Schritt in die richtige Richtung, wenn es darum geht, wie mit Nutzerdaten umgegangen werden sollte. Dieser Vortrag soll Dich dazu animieren, diesen Schritt auch zu gehen. Sei es als Administratorin eines Betriebs, ISP, oder einfach der Box für deine Freunde. Wir möchten aus unserer Erfahrung erläutern, was es strukturell braucht, um die Schlüssel fürs Königreich in Userhände zu legen. Welche Konsequenzen ergeben sich daraus und wie erklären wir sie den Benutzerinnen? Und natürlich, was sind die konkreten technischen Probleme und was sind unsere Lösungen. Wir haben einige der freien Möglichkeiten zur Mailboxverschlüsselung evaluiert. Selber benutzen wir mail_crypt von Dovecot, sowie eine selbst entwickelte Lösung zur Schlüsselverwaltung -- selbstverständlich alles freie Software. Unser Fazit ist, Daten von Dritten gehören nicht Adminzugänglich auf die Platte! Alles andere ist Gier, Faulheit, oder eine gute Gelegenheit es besser zu machen. about this event: https://files.chvoc.ch/dgwk20/



Neue Antiterror-Gesetze Schweiz. Überwachung, Pre-Crime, Gefährder … (dgwk2020)
Feb 22 2020 56 mins  
Zwei neue Antiterror-Gesetze werden zurzeit im Parlament behandelt: Das Polizeigesetz gegen «Gefährder» (PMT) und die Vorlage «Terrorismus und organisierte Kriminalität». Die vom Bundesrat präsentierten Entwürfe greifen tief in den präventiven Bereich ein, um potentielle Gefahren möglichst früh abzuwehren. Möglich ist das nur dank Überwachung und Prognosen über die zukünftige Gefährlichkeit von sog. «Gefährdern». Amnesty International und die NGO-Plattform Menschenrechte kritisieren die Gesetze als grund- und menschenrechtswidrig. Eine Einführung und Kritik der Antiterror-Gesetze aus menschenrechtlicher Sicht von Patrick Walder, Amnesty International. Zwei neue Antiterror-Gesetze werden zurzeit im Parlament behandelt: Das Polizeigesetz gegen «Gefährder» (PMT) und die Vorlage «Terrorismus und organisierte Kriminalität». Die vom Bundesrat präsentierten Entwürfe greifen tief in den präventiven Bereich ein, um potentielle Gefahren möglichst früh abzuwehren. Möglich ist das nur dank Überwachung und Prognosen über die zukünftige Gefährlichkeit von sog. «Gefährdern». Amnesty International und die NGO-Plattform Menschenrechte kritisieren die Gesetze als grund- und menschenrechtswidrig. Eine Einführung und Kritik der Antiterror-Gesetze aus menschenrechtlicher Sicht von Patrick Walder, Amnesty International. about this event: https://files.chvoc.ch/dgwk20/

Fichierung von politischen Organisationen und Bewegungen (dgwk2020)
Feb 22 2020 34 mins  
In jüngster Zeit musste eine Reihe von politischen Organisationen, Politikerinnen und Politikern feststellen, dass ihre Namen beim Nachrichtendienst (NDB) verzeichnet sind. Es wurden zahlreiche Einsichtsgesuche an den NDB gestellt. Die Geschäftsprüfungsdeledation (GPDel) des National- und Ständerates ist der Sache nachgegangen und wird die gewonnenen Erkenntnisse in ihrem nächsten Bericht publizieren. Die bekannt gewordenen Fälle zeigen klar, dass der NDB die gesetztlich vorgegebenen Schranken nicht eingehalten und insbesondere das Gebot verletzt hat, keine Informationen über die politische Betätigung und über die Ausübung der Meinungs-, Versammlungs- oder Vereinigungsfreiheit in der Schweiz zu bearbeiten. Wie ist diese Datensammlerei zu bewerten? In wie weit stehen politische Organisationen und Bewegungen heute im Visier der Staatsschützer? In jüngster Zeit musste eine Reihe von politischen Organisationen, Politikerinnen und Politikern feststellen, dass ihre Namen beim Nachrichtendienst (NDB) verzeichnet sind. Es wurden zahlreiche Einsichtsgesuche an den NDB gestellt. Die Geschäftsprüfungsdeledation (GPDel) des National- und Ständerates ist der Sache nachgegangen und wird die gewonnenen Erkenntnisse in ihrem nächsten Bericht publizieren. Die bekannt gewordenen Fälle zeigen klar, dass der NDB die gesetztlich vorgegebenen Schranken nicht eingehalten und insbesondere das Gebot verletzt hat, keine Informationen über die politische Betätigung und über die Ausübung der Meinungs-, Versammlungs- oder Vereinigungsfreiheit in der Schweiz zu bearbeiten. Wie ist diese Datensammlerei zu bewerten? In wie weit stehen politische Organisationen und Bewegungen heute im Visier der Staatsschützer? about this event: https://files.chvoc.ch/dgwk20/


Keynote: Die Schweiz will zum Digitale Ethik-Vorzeigeland werden … seriously? (dgwk2020)
Feb 22 2020 47 mins  
Mit dem neuen «Digital Trust Label», einem Ethik-Zentrum in Genf und der Swiss Digital Initiative will die Schweiz die Welt dazu bewegen, ethische Prinzipien in Technologie zu verankern. Doch der Track Record der Schweiz ist alles andere als vorzeigbar. E-ID, verwässerter Datenschutz, ausbleibende Spionage-Debatte, 5G-Turbo, Netzsperren zeigen, dass die politische Schweiz oft ein seltsames, eigentümliches Insel-Verständnis hat, was Technologien angeht. Also: Wasser predigen, Wein trinken? Diese Keynote wirft ein Schlaglicht auf die wesentlichen Entscheidungen und zeigt auf, warum wir dringend eine ethischere Debatte rund um die Digitialisierung benötigen. Eine jedoch, welche die zivilgesellschaftlichen Anliegen auch wirklich aufnimmt. Mit dem neuen «Digital Trust Label», einem Ethik-Zentrum in Genf und der Swiss Digital Initiative will die Schweiz die Welt dazu bewegen, ethische Prinzipien in Technologie zu verankern. Doch der Track Record der Schweiz ist alles andere als vorzeigbar. E-ID, verwässerter Datenschutz, ausbleibende Spionage-Debatte, 5G-Turbo, Netzsperren zeigen, dass die politische Schweiz oft ein seltsames, eigentümliches Insel-Verständnis hat, was Technologien angeht. Also: Wasser predigen, Wein trinken? Diese Keynote wirft ein Schlaglicht auf die wesentlichen Entscheidungen und zeigt auf, warum wir dringend eine ethischere Debatte rund um die Digitialisierung benötigen. Eine jedoch, welche die zivilgesellschaftlichen Anliegen auch wirklich aufnimmt. about this event: https://files.chvoc.ch/dgwk20/



Weizenbaum-Studienpreis (fiffkon19)
Nov 23 2019 61 mins  
Das FIfF möchte mit dem Weizenbaum-Studienpreis herausragende Leistungen des wissenschaftlichen Nachwuchses im Bereich „Informatik und Gesellschaft“ würdigen und die Aufmerksamkeit der Öffentlichkeit auf das Thema sowie die Beiträge der AutorInnen lenken. Mit Kurzvorstellung der bepreisten Arbeiten. Das FIfF stiftet den Weizenbaum-Studienpreis in Erinnerung an den Wissenschaftler und Informatik-Pionier Professor Dr. Joseph Weizenbaum in Würdigung seiner Verdienste um einen kritischen Blick auf die Informatik. Joseph Weizenbaum war an der Gründung des FIfF maßgeblich beteiligt, wirkte lange Zeit im Vorstand mit und trug durch seine wissenschaftlichen Leistungen und seine anti-militaristische und friedensorientierte Haltung in vorbildlicher Weise zur Arbeit und zu den Zielen des FIfF bei. Mit der Vergabe des Preises wollen wir auch die Bedeutung der Informatik für die gesellschaftliche Entwicklung betonen und auf die kritische, öffentliche Auseinandersetzung mit den Erkenntnissen und Artefakten der Informatik dringen. Das FIfF möchte mit dem Weizenbaum-Studienpreise herausragende Leistungen des wissenschaftlichen Nachwuchses in diesem Bereich würdigen und die Aufmerksamkeit der Öffentlichkeit auf das Thema sowie die besonderen Leistungen des Autors bzw. der Autorin lenken. Studierende sowie Wissenschaftlerinnen und Wissenschaftler in der Qualifikationsphase sollen hiermit zu fundierten und differenzierten Auseinandersetzungen mit Fragen aus dem Gebiet Informatik und Gesellschaft ermutigt werden. about this event: https://2019.fiffkon.de/program/events/8.html








Barrierefreie Software – Warum wir uns mehr darum bemühen sollten (dgwk2020)
Feb 22 2020 31 mins  
Seit Einführung der Web Content Accessibility Guidelines (WCAG) und des ARIA-Standards ist das Bewusstsein für Barrierefreiheit bei der Entwicklung von Software deutlich gestiegen und es ist wesentlich einfacher geworden, barrierefrei zu entwickeln. Dennoch ist die Situation in der Schweiz unbefriedigend und Nutzer mit einer Behinderung stossen immer wieder auf Barrieren in der digitalen Welt. Dieser Vortrag soll einen Überblick über die derzeitige Situation in der Schweiz geben und mithilfe einer Live-Demonstration einige typische Barrieren aufzeigen. Danach sollen Anknüpfungspunkte aufgezeigt werden, wie wir die aktuelle Situation verändern und für mehr Inklusion sorgen können. Dabei sollen unter anderem folgende Fragen beantwortet werden: Wie sieht die rechtliche Situation in der Schweiz aus? Wie sehen klassische Barrieren aus, welche ein Nutzer mit einer Sehbehinderung antrifft? Wo können wir ansetzen, um diese Barrieren zu vermeiden? Seit Einführung der Web Content Accessibility Guidelines (WCAG) und des ARIA-Standards ist das Bewusstsein für Barrierefreiheit bei der Entwicklung von Software deutlich gestiegen und es ist wesentlich einfacher geworden, barrierefrei zu entwickeln. Dennoch ist die Situation in der Schweiz unbefriedigend und Nutzer mit einer Behinderung stossen immer wieder auf Barrieren in der digitalen Welt. Dieser Vortrag soll einen Überblick über die derzeitige Situation in der Schweiz geben und mithilfe einer Live-Demonstration einige typische Barrieren aufzeigen. Danach sollen Anknüpfungspunkte aufgezeigt werden, wie wir die aktuelle Situation verändern und für mehr Inklusion sorgen können. Dabei sollen unter anderem folgende Fragen beantwortet werden: Wie sieht die rechtliche Situation in der Schweiz aus? Wie sehen klassische Barrieren aus, welche ein Nutzer mit einer Sehbehinderung antrifft? Wo können wir ansetzen, um diese Barrieren zu vermeiden? about this event: https://files.chvoc.ch/dgwk20/

Digitale Selbstbestimmung – welcher Weg für die Schweiz und Europa? (dgwk2020)
Feb 22 2020 61 mins  
Die Schweiz und Europa ist durch zwei Modelle der Digitalisierung herausgefordert, welche den freiheitlichen und demokratischen Grundwerten widersprechen: die globalen Internetplattformen ("GAFA") und der chinesische Weg. Der Workshop dreht sich um die Frage, wie in der Schweiz (und in Europa) digitale Selbstbestimmung auf individueller und kollektiver Ebene in Übereinklang mit den freiheitlichen Grundwerten gelingen kann. In einer ca. 20' langen Einleitung werden die Prinzipien der digitalen Selbstbestimmung, das Konzept eines vertrauenswürdigen Datenraumes (in der Schweiz und Europa) sowie ein oder zwei anschauliche Use Cases präsentiert und zur Diskussion gestellt. Anschliessend 45' moderierte Diskussion mit abschliessendem Fazit und Zusammenfassung. Die Schweiz und Europa ist durch zwei Modelle der Digitalisierung herausgefordert, welche den freiheitlichen und demokratischen Grundwerten widersprechen: die globalen Internetplattformen ("GAFA") und der chinesische Weg. Der Workshop dreht sich um die Frage, wie in der Schweiz (und in Europa) digitale Selbstbestimmung auf individueller und kollektiver Ebene in Übereinklang mit den freiheitlichen Grundwerten gelingen kann. In einer ca. 20' langen Einleitung werden die Prinzipien der digitalen Selbstbestimmung, das Konzept eines vertrauenswürdigen Datenraumes (in der Schweiz und Europa) sowie ein oder zwei anschauliche Use Cases präsentiert und zur Diskussion gestellt. Anschliessend 45' moderierte Diskussion mit abschliessendem Fazit und Zusammenfassung. about this event: https://files.chvoc.ch/dgwk20/


E-Voting – Ein Lagebericht (dgwk2020)
Feb 22 2020 33 mins  
Bundesrat, Kantonsregierungen und Verwaltungen haben aus den Vorkommnissen rund ums E-Voting im 2019 nicht die richtigen Schlüsse gezogen. Viele wollen mit E-Voting schnellstmöglich vorwärtsmachen und verlassen sich jetzt auf eine neue Post/Scytl-Lösung. Von Gesetzes wegen tragen aber die Kanton die alleinige Verantwortung für die sichere Durchführung von Wahlen und Abstimmungen und könne sie weder an Lieferanten oder Bundeskanzlei delegieren. Bei vielen Bürgern ist immer noch die Meinung verbreitet, E-Voting könne sicher sein, doch das Vertrauen darin sinkt forwährend. Bei der laufenden Initiative für ein E-Voting-Moratorium kommen gleichzeitig immer neue Unterstützer hinzu, doch es fehlen immer noch zehntausende Unterschriften. Dieser Vortrag soll einige Grundlagen zu E-Voting vermitteln und die aktuelle technische und politische Lage aufzeigen. Bundesrat, Kantonsregierungen und Verwaltungen haben aus den Vorkommnissen rund ums E-Voting im 2019 nicht die richtigen Schlüsse gezogen. Viele wollen mit E-Voting schnellstmöglich vorwärtsmachen und verlassen sich jetzt auf eine neue Post/Scytl-Lösung. Von Gesetzes wegen tragen aber die Kanton die alleinige Verantwortung für die sichere Durchführung von Wahlen und Abstimmungen und könne sie weder an Lieferanten oder Bundeskanzlei delegieren. Bei vielen Bürgern ist immer noch die Meinung verbreitet, E-Voting könne sicher sein, doch das Vertrauen darin sinkt forwährend. Bei der laufenden Initiative für ein E-Voting-Moratorium kommen gleichzeitig immer neue Unterstützer hinzu, doch es fehlen immer noch zehntausende Unterschriften. Dieser Vortrag soll einige Grundlagen zu E-Voting vermitteln und die aktuelle technische und politische Lage aufzeigen. about this event: https://files.chvoc.ch/dgwk20/




"Ich war das nicht, das war der Code!" (dgwk2020)
Feb 22 2020 44 mins  
Technik ist neutral. Code ist objektiv. Maschinen entscheiden gerecht – Bullshit! Diskriminierung hat viele Gesichter. Vom rassistischen Seifenspender über Jobsuche-Algorithmen mit einem Faible für Diskriminierung bis hin zur dezenten Arm-Reich-Schere bei Bewerbungssoftware – es gibt eine ganze Palette von Beispielen für Coding-Fails, die in Diskriminierung resultieren. Was können wir daraus lernen? Wenn die Aussage „Code is Law“ stimmt, sollten wir uns dringend einmal darüber unterhalten, wie gerecht eigentlich die Entscheidungen sind, die bereits heute softwarebasiert getroffen werden. Das beschränkt sich nicht nur auf offensichtliche Fragen, wie etwa nach welchen „objektiven“ Kriterien eine Software Richtern Empfehlungen für ein Strafmaß geben sollte. Unser ganzes Leben ist durchtränkt von Code – und darin verstecken sich viele kleine und große Annahmen darüber, wie die Welt ist und wie sie zu sein hat. Fehlende Sensibilität für die Lebensrealität anderer Menschen und auch mangelnde Diversität in der IT-Branche tragen dazu bei, dass bestimmte Perspektiven leider häufig übersehen werden. Das resultuert dann im Worst-Case-Szenario in intelektuellen "Höchstleistungen", wie einem rassistischen Seifenspender oder einer frauenfeindlichen Software zur Analyse von Bewerbungen. Und manchmal, da kosten solche Fehler sogar Menschenleben. Höchste Zeit, sich einmal über diese neue Form der versteckten Diskriminierung zu unterhalten. Und darüber zu sprechen, wie wir solche Fails in Zukunft verhindern können. Technik ist neutral. Code ist objektiv. Maschinen entscheiden gerecht – Bullshit! Diskriminierung hat viele Gesichter. Vom rassistischen Seifenspender über Jobsuche-Algorithmen mit einem Faible für Diskriminierung bis hin zur dezenten Arm-Reich-Schere bei Bewerbungssoftware – es gibt eine ganze Palette von Beispielen für Coding-Fails, die in Diskriminierung resultieren. Was können wir daraus lernen? Wenn die Aussage „Code is Law“ stimmt, sollten wir uns dringend einmal darüber unterhalten, wie gerecht eigentlich die Entscheidungen sind, die bereits heute softwarebasiert getroffen werden. Das beschränkt sich nicht nur auf offensichtliche Fragen, wie etwa nach welchen „objektiven“ Kriterien eine Software Richtern Empfehlungen für ein Strafmaß geben sollte. Unser ganzes Leben ist durchtränkt von Code – und darin verstecken sich viele kleine und große Annahmen darüber, wie die Welt ist und wie sie zu sein hat. Fehlende Sensibilität für die Lebensrealität anderer Menschen und auch mangelnde Diversität in der IT-Branche tragen dazu bei, dass bestimmte Perspektiven leider häufig übersehen werden. Das resultuert dann im Worst-Case-Szenario in intelektuellen "Höchstleistungen", wie einem rassistischen Seifenspender oder einer frauenfeindlichen Software zur Analyse von Bewerbungen. Und manchmal, da kosten solche Fehler sogar Menschenleben. Höchste Zeit, sich einmal über diese neue Form der versteckten Diskriminierung zu unterhalten. Und darüber zu sprechen, wie wir solche Fails in Zukunft verhindern können. about this event: https://files.chvoc.ch/dgwk20/



Eine Vision für eine digitale globale Demokratie (dgwk2020)
Feb 22 2020 27 mins  
Heutzutage ist alles globalisiert und digitalisiert – mit Ausnahme der Demokratie. Warum? Weshalb endet die demokratische Mitbestimmung an der Landesgrenze? Wie sollen wir Problemen begegnen, die kein Nationalstaat allein lösen kann? Diese und weitere Fragen zur globalen Demokratie versuchen wir bei GloCo.ch zu beantworten. Wir entwickeln Konzepte für «Mechanismen» der globalen Demokratie, was diese beinhalten müssten und wie sie funktionieren könnten, um allen Menschen weltweit eine demokratische Stimme zu geben. Was früher undenkbar war, ist mit neuen digitalen Technologien grundsätzlich möglich. So wie wir heute zum Frühstück per Internetradio Nachrichten aus Australien oder Südamerika hören und per Email mit Bekannten in Japan, Afrika und Amerika diskutieren, könnten wir uns mit der richtigen Plattform morgen über globale Probleme und deren Lösungen informieren und austauschen. Das Ergebnis einer globalen Abstimmung gemäss dem Prinzip «Jeder-Mensch-eine-Stimme» würde in Zahlen zeigen, wie viele von uns rund 8 Milliarden Menschen einen Vorschlag unterstützen oder ablehnen. In diesem Vortrag werde ich eine denkbare und umsetzbare Lösung zu diesen Themen präsentieren. Dies mag für einige nach Utopie klingen - und für andere nach Dystopie. Ich werde deshalb auch die Herausforderungen unseres Projekts, z.B. «Erreichen wir wirklich etwas oder ist es sowieso egal?», und dessen Risiken, z.B. «Wie steht es um das Abstimmungsgeheimnis?» oder «Wie verhindern wir, dass uns Bots überstimmen?», den Möglichkeiten gegenüberstellen, z.B. “Wie kann eine Regierung noch sagen, “Wenn wir dieses Gesetz verabschieden, wird wir unser Land im Vergleich zu unseren Nachbarn einen nicht verkraftbaren Nachteil haben.”, wenn eine Mehrheit der Bevölkerung in ihrem Land und ebensolche Mehrheiten in den Nachbarländern diese Gesetzesmassnahme befürworten?” oder “Wie erfolgreich wird ein Vorschlag zum Klimaschutz sein, wenn nicht nur Zehntausende für ihn auf die Strasse gehen, sondern wenn er von den Menschen mit 3:1 unterstützt wird ... aber mit 3 Milliarden : 1 Milliarde Menschen?”. Zusammenfassend soll der Vortrag eine Vision veranschaulichen und deren Potenzial aufzeigen, aber auch den Grundstein legen für eine ernste und ehrliche Diskussion darüber, ob und wie wir demokratisch bestimmen können, globale Probleme gemeinsam global zu lösen. Heutzutage ist alles globalisiert und digitalisiert – mit Ausnahme der Demokratie. Warum? Weshalb endet die demokratische Mitbestimmung an der Landesgrenze? Wie sollen wir Problemen begegnen, die kein Nationalstaat allein lösen kann? Diese und weitere Fragen zur globalen Demokratie versuchen wir bei GloCo.ch zu beantworten. Wir entwickeln Konzepte für «Mechanismen» der globalen Demokratie, was diese beinhalten müssten und wie sie funktionieren könnten, um allen Menschen weltweit eine demokratische Stimme zu geben. Was früher undenkbar war, ist mit neuen digitalen Technologien grundsätzlich möglich. So wie wir heute zum Frühstück per Internetradio Nachrichten aus Australien oder Südamerika hören und per Email mit Bekannten in Japan, Afrika und Amerika diskutieren, könnten wir uns mit der richtigen Plattform morgen über globale Probleme und deren Lösungen informieren und austauschen. Das Ergebnis einer globalen Abstimmung gemäss dem Prinzip «Jeder-Mensch-eine-Stimme» würde in Zahlen zeigen, wie viele von uns rund 8 Milliarden Menschen einen Vorschlag unterstützen oder ablehnen. In diesem Vortrag werde ich eine denkbare und umsetzbare Lösung zu diesen Themen präsentieren. Dies mag für einige nach Utopie klingen - und für andere nach Dystopie. Ich werde deshalb auch die Herausforderungen unseres Projekts, z.B. «Erreichen wir wirklich etwas oder ist es sowieso egal?», und dessen Risiken, z.B. «Wie steht es um das Abstimmungsgeheimnis?» oder «Wie verhindern wir, dass uns Bots überstimmen?», den Möglichkeiten gegenüberstellen, z.B. “Wie kann eine Regierung noch sagen, “Wenn wir dieses Gesetz verabschieden, wird wir unser Land im Vergleich zu unseren Nachbarn einen nicht verkraftbaren Nachteil haben.”, wenn eine Mehrheit der Bevölkerung in ihrem Land und ebensolche Mehrheiten in den Nachbarländern diese Gesetzesmassnahme befürworten?” oder “Wie erfolgreich wird ein Vorschlag zum Klimaschutz sein, wenn nicht nur Zehntausende für ihn auf die Strasse gehen, sondern wenn er von den Menschen mit 3:1 unterstützt wird ... aber mit 3 Milliarden : 1 Milliarde Menschen?”. Zusammenfassend soll der Vortrag eine Vision veranschaulichen und deren Potenzial aufzeigen, aber auch den Grundstein legen für eine ernste und ehrliche Diskussion darüber, ob und wie wir demokratisch bestimmen können, globale Probleme gemeinsam global zu lösen. about this event: https://files.chvoc.ch/dgwk20/

DG108: Das Parlament in Fragen des wissenschaftlich-technischen Wandels beraten - wie läuft das ab? (datengarten)
Mar 10 2020 84 mins  
Einrichtungen der Technikfolgenabschätzung gehörten zu den “most important public bodies you’ve never heard of”, schrieb der frühere Leiter einer solchen Einrichtung in der Fachzeitschrift Nature. Mit dem zweiten Teil des Satzes liegt er nicht ganz falsch, auch wenn Transparenz und öffentlicher Diskurs seit Beginn zu den Prinzipien der Technikfolgenabschätzung gehören. Im Vortrag soll die Arbeit des Büros für Technikfolgen-Abschätzung beim Deutschen Bundestag (kurz TAB) näher beleuchtet werden: Wie funktioniert Technikfolgenabschätzung? Welche Rolle spielt diese Form der Politikberatung im Konzert der vielfältigen Einflüsse auf die Arbeit des Parlaments? Und welche Herausforderungen stellen sich ihr aktuell? Das TAB wurde vor gut 30 Jahren vom Deutschen Bundestag eingerichtet. Es sollte die Informations- und Wissensbasis der Abgeordneten in Fragen des technologischen Wandels erweitern. Seitdem haben die Wissenschaftler*innen des Büros ca. 200 Berichte veröffentlicht, die sich (unter anderem) mit gesellschaftlich kontroversen Technologien wie der Kernfusion und Gentechnologie, aber auch mit Umwelttechnologien, medizinischen Entwicklungen und Aspekten der Digitalisierung befassen. Die Idee einer solchen Beratungseinrichtung, ursprünglich in den USA entwickelt, machte Schule. Mittlerweile lässt sich weltweit eine Institutionalisierung der Technikfolgenabschätzung beobachten, gleichzeitig stellen sich ihr durch den immer schnelleren technologischen Wandel und durch Veränderungen im politischen System neue Herausforderungen, die im Vortrag diskutiert werden sollen. about this event: https://c3voc.de





Mr. Map - Open Source Service Registry (fossgis2020)
Mar 13 2020 22 mins  
Vorstellung einer Open Source Service Registry für Geodatendienste, welche sich zur Zeit in der Entwicklung durch die GDI-RP befindet. Das System schließt an alte Tugenden bestehender Geodateninfrastrukturen an und bietet darüber hinaus Funktionen, welche den Anforderungen von modernen Webapplikationen entsprechen. Als Herzstück einer jeden Geodateninfrastruktur sollte eine Service Registry - eine „Diensteregistrierungskomponente“ - stehen. Die Anforderungen an eine solche Registrierungskomponente sind vielfältig und mitunter aufgrund komplexer technischer Zusammenhänge nicht im Handumdrehen umzusetzen. Hierzu zählen u.a. die Registrierung von Web Map Services oder Web Feature Services in den jeweiligen technischen Standard, die Zugänglichkeit dieser für Außenstehende, Anforderungen an die Zugriffsbeschränkung ausgewählter Dienste oder einzelner Subelemente wie bspw. Layer, eine Gruppen- und Nutzerverwaltung, usw. „Mr. Map“ wird seit April 2019 von der GDI-RP, mit Sitz in Koblenz, konzipiert und entwickelt und stellt eine Lösung für die technischen Anforderungen und Erwartungen des modernen Benutzers dar. Als Webapplikation läuft „Mr. Map“ plattformübergreifend und bietet bereits, neben den eingangs gelisteten Grundfunktionen einer Service Registry, zusätzliche Komponenten, wie bspw. eine Suchschnittstelle zur Anbindung an weitere Systeme wie Geoportale usw., ein internes Publisher-System zur Verteilung der Registrierungsrechte eigener Dienste auf andere Nutzer oder einen integrierten Metadateneditor, mit welchem nicht-technische Metadaten eines Dienstes bearbeitet werden können. Im Vortrag werden die Motivation des Projektes, die Leitsätze der Entwicklung und des Designs und einige technische Hintergründe beleuchtet sowie Inhalte des bisherigen Entwicklungsstandes präsentiert. about this event: https://pretalx.com/fossgis2020/talk/K7VNXP/


Open-Source-GIS-Komponenten im radiologischen Notfall-Informationssystem des Bundes (fossgis2020)
Mar 13 2020 29 mins  
Das radiologische Notfall-Informationssystem des Bundes (IMIS3) hat Ende 2019 das vorhergehende proprietäre System abgelöst. IMIS3 wurde dabei konsequent aus freien Komponenten aufgebaut und um räumliche Funktionen erweitert. Aufbau und Zusammenspiel der Komponenten des IMIS3, sowie die Umsetzung der mit der Entwicklung einhergehenden Open-Source-Strategie in einer Behörde des Bundes werden ebenso dargestellt, wie der Impact der Entwicklungen auf bestehenden Projekte aus dem Umfeld des FOSSGIS. Zu den Aufgabenbereichen des Bundesamtes für Strahlenschutz (BfS) gehört es, bei einem radiologischen Notfall, eigene und anderweitig verfügbare relevante Daten zu sammeln und zu erfassen, zu verarbeiten und zu bewerten sowie Dokumente zu erstellen, die die notwendigen Informationen enthalten, um den Krisenstab zu befähigen, über geeignete Maßnahmen des Notfallschutzes zu entscheiden. Der dabei eingesetzte Softwarestack wird unter der Bezeichnung IMIS (integriertes Mess- und Informationssystem) betrieben. Nach mehreren Jahren Entwicklungszeit wurde das bisherige proprietäre System (IMIS2) durch ein konsequent auf freien Komponenten und mit deutlicher Erweiterung um räumliche Funktionen und jetzt web-basierendes System ersetzt. Das neue IMIS3 wird von nun an bei der Bewältigung radiologischer Ereignisse und Notfälle vom radiologischen Lagezentrum des Bundes eingesetzt. Die bei der Neuentwicklung des IMIS3 konsequent eingesetzte Open-Source-Strategie kombiniert mehrere OSGeo-Projekte und hat einerseits einigen Input in diese Projekte geliefert und andererseits weitere Projekte neu entstehen lassen, die vom BfS unter der GPL auf github.com veröffentlicht wurden. Diese offensive Vorgehensweise ist für ein Bundesamt wohl eher ungewöhnlich. Im Vortrag wird die Architektur des IMIS3 im Bezug auf die verwendeten Open-Source-GIS-Komponenten dargestellt. Diese enthält zum einen den aus OpenLayers und GeoExt aufgebauten generischen Web-GIS-Klienten des BfS. Aussehen, Inhalt und Funktionalität des Web-GIS wird über ein eigenes in Geonetwork OS gepflegtes Metadatenschema gesteuert. Die Generik des Klienten erlaubt es diesen auch für andere Fachbereiche mit vergleichbaren Datenstrukturen abseits des radiologischen Notfallschutzes einzusetzen. Die Machbarkeit einer solchen universellen Verwendung wird im WS 2019/2020 im Rahmen eines Studierendenprojekts an der Hochschule Karlsruhe geprüft und dessen Ergebnisse und Erfahrungen im Vortrag mit eingebaut. Zudem kommen bei IMIS3 noch PostGIS, Geostyler, Mapfish Print sowie diverse andere Projekte zum Einsatz, die das Gesamtsystem zur Bewältigung radiologischer Notfälle befähigt. about this event: https://pretalx.com/fossgis2020/talk/YFEKKC/

Hochverfügbare PostGIS-Cluster auf Kubernetes (fossgis2020)
Mar 13 2020 28 mins  
Container-basierte IT-Infrastrukturen sind bereits seit einigen Jahren in Mode und werden im Zuge von Cloud-basierten Irgendwas-as-a-service Anwendungen immer mehr zum Standard. Im Vortrag wird vorgestellt, wie sich ein hochverfügbarer PostGIS-Cluster auf Kubernetes betreiben lässt. Container-basierte IT-Infrastrukturen sind bereits seit einigen Jahren in Mode und werden im Zuge von Cloud-basierten Irgendwas-as-a-service Anwendungen immer mehr zum Standard. Für die Orchestrierung von Hunderten von Containern verwenden die meisten derzeit Kubernetes von der Cloud Native Computing Foundation (CNCF) - kurz K8s. K8s umfasst mittlerweile ein recht großes Ökosystem für das Aufsetzen und automatische Skalieren von Webdiensten, wofür es ursprünglich von Google entwickelt wurde. Zunehmend wird es aber auch für zustandsorientierte Dienste wie Datenbanken genutzt. Nun sind Datenbankserver eine etwas komplexere Geschichte als Microservices. Alleine deren Administration ist meist sehr spezifisch. Deshalb existiert bei K8s dafür keine Standardressource, sondern es müssen Benutzer-definierte Operatoren erstellt werden. Für PostgreSQL/PostGIS-Nutzer ist die Auswahl noch überschaubar: Es gibt einen Operator und ein Docker-Image von Crunchy Data sowie von Zalando. Letzteres wird im Vortrag näher vorgestellt, gepaart mit Erfahrungsberichten aus dem DBaaS Tagesgeschäft: Wie wird Ausfallsicherheit geschaffen? Wie funktioniert ein hochverfügbares PostGIS mit Patroni? Welche Backup- und Recovery Strategien werden genutzt? Was ist bei Versionsupdates? Wie wird der Produktivbetrieb überwacht? Wie werden Entwickler-Teams zu eigenen DBAs? Was kann da überhaupt schiefgehen? about this event: https://pretalx.com/fossgis2020/talk/HZ8XES/




WPS für kommunale GDIs - Eine Fallstudie über den Mehrwert von Web Processing Services (WPS) am Beispiel der Geodateninfrastruktur Freiburg (GDI-FR) (fossgis2020)
Mar 13 2020 24 mins  
Die zunehmende Digitalisierung der Verwaltungen schafft den Bedarf an Automatisierung komplexer Prozesse über ein breites Spektrum an Disziplinen. Solche Prozesse verwenden oft Geodaten, was eine GDI zum idealen Ausgangspunkt macht. Der Vortrag beruht auf einer Studie zur Untersuchung von WPS im kommunalen Umfeld. Ein Anwendungsfall umfasst die Evakuierungsplanung bei der Kampfmittelbeseitigung und demonstriert die Anwendbarkeit einer aus acht Prozessen bestehenden Prozesskette. Der Aufbau kommunaler Geodateninfrastrukturen (GDI) wurde in den letzten Jahren, nicht zuletzt aufgrund der Betroffenheit durch die INSPIRE-Richtlinie, vorangetrieben. Dabei hat sich der Ansatz einer dienstorientierten Architektur (SOA) auf Basis der offenen Standards des OGC bewährt. Gleichzeitig weckt die zunehmende Digitalisierung kommunaler Verwaltungen den Bedarf an der Automatisierung auch komplexer und in verschiedenste Fachdisziplinen hineinreichende Prozessabläufe. Der 2007 durch das OGC verabschiedete Web Processing Service (WPS) Standard kann für die Implementierung von Prozessen herangezogen werden, und hat das Potenzial kommunale, im Sinne der Digitalisierung anzupassende Prozessabläufe mit einer GDI zu verbinden, und bisher nicht erreichbare fachfremde Verfahren an den Vorteilen einer GDI teilhaben zu lassen. Ob die tatsächliche Implementierung und Nutzung von Prozessen auf Basis von WPS für eine kommunale GDI geeignet ist und Vorteile hat wurde im Rahmen einer Studie anhand eines komplexen und real existierenden Anwendungsfalls untersucht. Das Szenario des Anwendungsfalls umfasst die Evakuierungsplanung bei der Kampfmittelbeseitigung. Dabei spielt eine am Fraunhofer Ernst-Mach-Institut entwickelte externe Komponente zur Explosionssimulation und Druckwellenausbreitung eine besondere Rolle, mit der ein Evakuierungsradius kleiner als bisher gezogen werden kann. Insgesamt wurden bei der Realisierung acht verschiedene WPS-Prozesse implementiert und miteinander verkettet. Die Untersuchung hinsichtlich der Eignung von WPS in einer kommunalen GDI wurde zum einen an der tatsächlichen Umsetzung gemessen, und zum anderen an drei allgemeinen Kriterien festgemacht: Wiederverwendbarkeit, Kompatibilität und Benutzerfreundlichkeit. about this event: https://pretalx.com/fossgis2020/talk/MF7FZD/

OPENER: Offene Plattform für die Crowd-basierte Erfassung von Informationen zu Barrieren an Haltestellen im ÖPNV (fossgis2020)
Mar 13 2020 24 mins  
Im Projekt OPENER haben wir eine Open Source Applikation zur Erfassung von Informationen zu Barrieren an Haltestellen im ÖPNV entwickelt, welche eine Crowd-basierte flächendeckende und lückenlose Erfassung ermöglicht. Die aktuell in einer separaten Datenbank erfassten Daten sollen ins OSM zurückgespeist werden, wobei der Beitrag die Applikation präsentiert sowie rechtliche und technische Aspekte zur Diskussion stellt. # Einleitung und Hintergrund Barrierefreiheit im öffentlichen Personennahverkehr (ÖPNV) — dies ist ein richtungsweisendes Ziel, das sich die Bundesrepublik Deutschland bis Anfang 2022 mit der Novellierung des Personenbeförderungsgesetzes gesetzt hat. Daraufhin wurden konkrete Anforderungen zur Datenerfassung im Rahmen des Projekts [DELFI+]( https://www.delfi.de/) entwickelt und den Arbeitsgruppen der regionalen, öffentlichen Verkehrsverbünde zur Umsetzung übermittelt. Insbesondere für kleine, in ländlichen Regionen agierende ÖPNV-Verbünde stellt die flächendeckende und lückenlose Erfassung von Haltestelleninformationen zur Barrierefreiheit mit den detaillierten Anforderungen allerdings eine nicht zu bewältigende finanzielle und personelle Herausforderung dar. Allein für Haltestellen sind dies über 48 zu erfassende Attribute pro Haltestellensteig. So hat beispielsweise der Verkehrsverbund Mittelsachsen mit ca. 9.000 Haltestellensteigen insgesamt 432.000 Datensätze zu erheben und zu pflegen! Zu den 48 Steigattributen kommen außerdem noch weitere 39 für die Erfassung von Wegen in und durch die Haltestelle hinzu. Schon diese Zahlen verdeutlichen die Brisanz, die mit dem Thema Datenerhebung verbunden ist. # Projektziel Die Idee im Projekt OPENER ist es, Bürgerinnen und Bürger die Möglichkeit zu geben, sich bei der Datenerfassung zu beteiligen und somit „ihren Nahverkehr“ selbst mit zu verbessern. Das technische Ziel unseres Projektes ist daher die Entwicklung und Bereitstellung einer Open-Data-Plattform zur DELFI+-konformen Erfassung, Bereitstellung und Bewertung von Daten zu Barrieren an Haltestellen des ÖPNV. Die erhobenen Daten dienen daraufhin zur Generierung baulicher Hilfestellungen mit dem Ziel der Erreichung von Barrierefreiheit. Im Projekt wird ein Erfassungswerkzeug entwickelt, das ohne aufwendige Mess- und Eingabeverfahren das Aufnehmen der Daten direkt an der Haltestelle ermöglicht. Ein offener Zugang zu Daten und Software soll daraufhin die Basis für neue Anwendungen sowie für Handlungsempfehlungen für Nutzer, Kommunen und Verkehrsverbünde sein. # Vortragsinhalte ## Entwickelte Plattform Es wurde eine Android-Applikation entwickelt, welche Haltestellensteige in OSM-Karten rendert und für jeden Steig die zu erfassenden DELFI-Attribute in Form von Frage-Dialogen an den Nutzer der App abbildet. Neben Entscheidungsfragen oder Fragen mit Texteingabe als Antwort beinhaltet der DELFI-Katalog Fragen zu Abmaßen, beispielsweise von Bahnsteighöhen oder Wegbreiten. Hierfür wurde in die App ein Vermessungswerkzeug basierend auf Google ARCore entwickelt, das eine unkomplizierte Vermessung dieser Objekte auch ohne Zollstock erlaubt. Die Android-Applikation ist als Open Source im [OPENER App-Repository](https://gitlab.hrz.tu-chemnitz.de/opener/opener-app/) verfügbar. Aktuell wird eine Serveranwendung umgesetzt, sodass die erfassten Daten in einer Datenbank hinterlegt werden können. Dabei existiert für jeden Haltestellensteig eine weltweit eindeutige Identifikationsnummer, die sog. Deutsche Haltestellenidentifikationsnummer (DHID), welche aus dem Zentralen Haltestellenverzeichnis (ZHV) des DELFI e.V. in die Serveranwendung eingespeist wird. Zu Projektende wird im Februar 2020 eine Applikation mit Serveranbindung vorliegen, welche eine ortbezogene Erhebung und Speicherung von Daten an Haltestellen ermöglicht. Nun liegt es nahe, die von den Nutzern erhobenen Daten in OpenStreetMap zurückzuspielen. An dieser Stelle möchten wir sowohl rechtliche als auch technische Aspekte präsentieren und zur Diskussion stellen. ## Rechtliche Aspekte Die bestehenden Daten aus dem ZHV des DELFI e.V. werden durch die Nutzung der OPENER-App veredelt. Konkret heißt dies, dass die vorhandene DHID mit ihren Steig-Koordinaten um die erfassten DELFI-Attribute angereichert werden. Bei der Rückspeisung ins OSM muss also die Lizenzkompatibilität sichergestellt werden. Wir befinden uns aktuell in Absprache mit dem DELFI e.V. über eine Überführung der erhobenen Daten in die Hoheit des Vereins. Bei diesem Schritt streben wir an, die erhobenen Daten unter eine ODbL-kompatible-Lizenz zu stellen. ## Technische Aspekte Für die erhobenen DELFI-Attribute haben wir sinnvolle äquivalente OSM-Tags recherchiert und im [OPENER OSM Wiki](https://wiki.openstreetmap.org/wiki/User:OPENER/DELFI_OSM_Tags) die Zuordnung bestehender Tags zu den DELFI-Attributen aufgelistet. Des Weiteren existiert in OSM bereits eine international eindeutige Nummer zur Referenzierung von ÖPNV-Haltestellen: die IFOPT (Identification of Fixed Objects in Public Transport). Die flächendeckende Datenerhebung hinsichtlich Barrierefreiheit an Haltestellen könnte also unter Verwendung der IFOPT zusammen mit den vorgeschlagenen, äquivalenten Tags erfolgen, indem fehlende Informationen in OSM um die mittels der App erhobenen Daten ergänzt wird. Diese Daten können aus der OPENER-Datenbank extrahiert und in die OSM-Datenbank importiert werden. Dazu werden im Vortrag Import-Konzepte präsentiert und zur Diskussion gestellt. # Referenzen [OPENER Projekt-Webseite](https://www.bmvi.de/SharedDocs/DE/Artikel/DG/mfund-projekte/opener.html) [OPENER App-Repository](https://gitlab.hrz.tu-chemnitz.de/opener/opener-app/) [OPENER OSM Wiki](https://wiki.openstreetmap.org/wiki/User:OPENER/DELFI_OSM_Tags) [IFOPT Wiki-Eintrag]( https://wiki.openstreetmap.org/wiki/DE:Key:ref:IFOPT) # Acknowledgements Das Projekt „OPENER“ startete im März 2019 und wird im Rahmen der Förderrichtlinie „Modernitätsfonds“ (mFUND) mit insgesamt 97.110 Euro durch das Bundesministerium für Verkehr und digitale Infrastruktur (BMVI) gefördert. about this event: https://pretalx.com/fossgis2020/talk/3F8JCB/

Rettungspunkte - im Prinzip ganz einfach, aber ... (fossgis2020)
Mar 13 2020 24 mins  
Rettungspunkte sind definierte Orte (meistens) im Wald, an denen in fast allen Bundesländern Schilder mit einer Referenznummer angebracht sind. Diese Standorte werden in OSM seit mindestens 2008 als `highway=emergency_access_point` erfasst. Seit 2014 werden die amtlichen Daten der meisten Bundesländer unter CC-BY-ND veröffentlicht, wodurch nun Qualitätskontrollen möglich sind. In dem Vortrag werden die verwendeten Methoden und die teilweise überraschenden Ergebnisse vorgestellt. Forstliche Rettungspunkte sind definierte Orte (meistens) im Wald, die mithilfe von Koordinatenangaben Treffpunkte beschreiben. Im Falle eines Unfalls können diese Treffpunkte bei der Kommunikation des Verunfallten bzw. eines Helfers mit dem Rettungsdienst genutzt werden, um das Auffinden des Unfallortes zu erleichtern. An diesen Orten sind in den meisten Bundesländern fest installierte Schilder mit einer Referenznummer angebracht. Diese Standorte werden in OSM seit mindestens 2008 als `highway=emergency_access_point` erfasst. Seit 2014 veröffentlicht das Kuratorium für Waldarbeit und Forsttechnik e.V. (KWF) die Rettungspunkte der meisten Bundesländer unter der zu OSM inkompatiblen Lizenz CC-BY-ND. Seitdem mache ich regelmäßige Abgleiche beider Datenbestände, kann aber aus lizenzrechtlichen Gründen die Detail-Ergebnisse nicht allgemein veröffentlichen. Als pragmatische Lösung erhalten je nach Fehlerart die entsprechenden Mapper oder Forstverwaltungen einen Hinweis, die erfassten oder veröffentlichten Daten nochmals vor Ort zu überprüfen. So hat sich im Laufe der Jahre ein unabhängiges QS-System entwickelt, durch das in OSM einige Erfassungsfehler korrigiert werden konnten. Aber auch in den Daten der Forstverwaltungen konnten falsch aufgestellte oder verwechselte Schilder entdeckt werden. In dem Vortrag werden die verwendeten Methoden und die teilweise überraschenden Ergebnisse vorgestellt. about this event: https://pretalx.com/fossgis2020/talk/XBCSPZ/






MapServer Statusbericht (fossgis2020)
Mar 12 2020 22 mins  
Am Horizont erscheinen die ersten Anzeichen für MapServer 8, was wird er Neues bringen? Welche Neuerungen gab es in den letzten 1-2 Jahren? Vorangestellt wird eine kurze Einführung, damit auch Neueinsteiger dem Vortrag folgen können. MapServer ist jetzt 26 alt wird nach wie vor vielfältig als WMS, WFS, WCS eingesetzt. Projekte aus seinem Umfeld (tiny-ows, MapCache) erweitern seine Funktionen. Außerdem wird auch MapServer selbst stetig weiter entwickelt und quasi ständig gibt es neue Funktionen und Konfigurationsmöglichkeiten zu entdecken. MapServer als Software und Projekt wird kurz vorgestellt, gefolgt von einem Überblick über die wichtigsten Änderungen in der Konfiguration, die sich seit Version 7.0 ergeben haben. Es wird auchdie Frage geklärt, wie man als Interessietrer selbst an diese Informationen heran kommen kann und wo sich womöglich die Dokumentation zu neuen Funtkionen finden lässt (wenn sie noch nicht in der offiziellen Doku angekommen ist). Highlights aus dem Changelog: * MapScript Unterstützung für python 3 und PHP7 * Neues Ausgabeformat Mapbox Vector Tiles (MVT) * Unterstützung von OGC Filter für WMS * Compositing Filters * erweiterte Unterstützung von Layer-Metadaten * INSPIRE Downlaod WCS 2.0 Wir werfen auch einen Blick auf MapServer-Pakete für Windows und den Abschluss bildet ein Ausblick auf Version 8 mit Hinweisen, wie das bevostehden Update schon jetzt vorbereitet werden kann. Hier die Links zum Vortrag wie im Tagungsband erwähnt: [1] https://mapserver.org/ [2] https://www.opengeospatial.org/ [3] https://de.wikipedia.org/wiki/Common_Gateway_Interface [4] https://mapserver.org/mapscript/index.html [5] https://github.com/mapserver/mapserver/wiki/MapServer-8.0-Release-Plan [6] https://www.openhub.net/p/mapserver [7] https://ftp.gwdg.de/pub/misc/openstreetmap/FOSS4G-2016/foss4g-2016-1295- mapserver_status_report-hd.mp4 [8] https://mapserver.org/MIGRATION_GUIDE.html [9] https://mapserver.org/development/changelog/changelog-7-4.html [10] https://github.com/mapserver/mapserver/blob/branch-7-4/HISTORY.TXT [11] https://mapserver.org/development/rfc/ms-rfc-119.html [12] https://github.com/sdlime/mvt-demo [13] https://mapserver.org/development/rfc/ms-rfc-118.html [14] https://mapserver.org/development/rfc/ms-rfc-120.html [15] https://ms4w.com/ [16] https://github.com/mapserver/mapserver/wiki/Mapfile-Syntax-Changes-for-8.0 about this event: https://pretalx.com/fossgis2020/talk/CWRZQH/


AD und PostgreSQL Rollen verknüpfen mit dem Höllenhund (fossgis2020)
Mar 12 2020 21 mins  
Rollen und Rechte in einer Geodatenbank zu verwalten, war schon immer eine Herkulesaufgabe. In einer Stadtverwaltung wie Freiburg, mit mehreren hundert Mitarbeitenden aus vielen verschiedenen Ämtern, bietet es sich daher an, diese Berechtigungen über die zentrale Benutzerverwaltung zu steuern. Das Zusammenspiel von FOSSGIS Komponenten mit dem Verzeichnisdienst ActiveDirectory wird mit Kerberos als Authentifizierungsdienst umgesetzt. Rollen und Rechte in einer Geodatenbank zu verwalten, war schon immer eine komplizierte Aufgabe. Benutzerverwaltung up-to-date halten, wechselnde Aufgaben und ressortspezifische Zugriffe zu ermöglichen, eine administrative Herkulesaufgabe. In einer Stadtverwaltung wie Freiburg, mit mehreren hundert Mitarbeitenden aus vielen verschiedenen Ämtern und Projektgruppen, die alle auf eine zentrale Geodatenhaltung zugreifen wollen, bietet es sich daher an, diese Berechtigungen über die zentrale Benutzerverwaltung abzubilden. Das Zusammenspiel von Open-Source Komponenten wie PostgreSQL und QGIS mit dem Verzeichnisdienst ActiveDirectory wird durch Kerberos als Authentifizierungsdienst umgesetzt. Es ermöglicht z.B. Single-Sign-On bei der Nutzung der zentralen Geodatenbank in QGIS unter Windows. Die Konzeption der Rollen im AD und in der Datenbank stehen dabei an erster Stelle. Die automatische Übernahme der Rollen vom AD in die Datenbank ist eine weitere Herausforderung, ebenso wie die Weitergabe von QGIS-Projekten mit gespeicherten Datenbank-Verbindungen die mittels Kerberos authentifiziert werden. Wir stellen die bisherigen Erfahrungen bei der Anwendung dieses Vorgehens in der Stadtverwaltung Freiburg vor. about this event: https://pretalx.com/fossgis2020/talk/UPPG8U/

Aufbereitung von vektorbasierten Geodaten als Grundlage für Landnutzungsmodelle mit QGIS und PostGIS (fossgis2020)
Mar 12 2020 20 mins  
In den letzten Jahren hat die öffentliche Verfügbarkeit von vektorbasierten Geodaten stark zugenommen. Dieser Fundus an Daten wird zur Entwicklung von Landnutzungsmodellen kaum genutzt. Im Vortag wird gezeigt wie vektorbasierte Geodaten aus unterschiedlichsten Quellen mit QGIS und Postgis für die Verwendung in Landnutzungsmodellen aufbereitet werden und welche spannenden Informationen bereits während der Aufbereitung gewonnen werden können. In den vergangenen Jahren hat die öffentliche Verfügbarkeit von vektorbasierten Geodaten stark zugenommen. Diese Daten decken unterschiedlichste Themengebiete in verschiedensten räumlichen und zeitlichen Auflösungen ab. Dieser Fundus an Daten zur Entwicklung von Landnutzungsmodellen wird kaum genutzt. Dabei können vektorbasierte Landnutzungsmodelle und die dafür aufbereiteten Eingangsdaten eine wertvolle Ergänzung zu den etablierten Instrumenten in allen Bereichen der räumlichen Planung darstellen. Am Beispiel aus dem Forschungsprojekt „Nachwuchs“ wird gezeigt, wie Daten aus unterschiedlichsten Quellen mit QGIS aufbereitet, in eine zentrale Postgis-Datenbank eingespeist und aus dieser, die für das Modell benötigten Informationen extrahiert werden und welche spannenden Informationen aus den Daten bereits während der Aufbereitung gewonnen werden können. Abschließend werden erste Ergebnisse eines Landnutzungsmodells auf Grundlage der gezeigten Daten vorgestellt und ein Ausblick auf die weitere Entwicklung gegeben. „Nachwuchs“ ist ein vom BMBF gefördertes Forschungsprojekt mit Ziel, für den westlichen Teil der Stadtregion Köln innovative, attraktive und zugleich flächensparende Siedlungsformen zu entwickeln, um mit dem massiven Bevölkerungsdruck aus Köln in nachhaltiger Art und Weise umzugehen. about this event: https://pretalx.com/fossgis2020/talk/XNXHGP/


Geoprocessing mit OpenCaching (fossgis2020)
Mar 12 2020 24 mins  
In diesem Vortrag wird gezeigt, wie die Datenbank der Geocaching-Plattform OpenCaching.de mit QGIS und PostGIS wissenschaftlich ausgewertet werden kann. Mithilfe des Graphical Modeler von QGIS, SQL und Python können die meisten Arbeitsschritte automatisiert werden. Die Analyse ist ein Best-Practice-Beispiel zum Umgang mit offenen Geodaten im Rahmen des BMVI-geförderten Projektes OpenGeoEdu. Sie kann auf der offenen Lernplattform des Projektes ausführlich nachvollzogen werden. OpenCaching.de ist die zweitgrößte Geocaching-Plattform in Mitteleuropa. Mit über 26.000 Geocaches, deren Metadaten über eine offene Web-API ausgelesen werden kann, eignet sie sich auch hervorragend als Lehrbeispiel für den Umgang mit Geodaten. Der Vortrag gibt einen kurzen Überblick über das Fallbeispiel im Onlinekurs, sowie über das Vorgehen und Ergebnisse der Analyse. Inhalte der Geocaching-Datenbank sollen mit Landnutzungsdaten (CORINE Landcover) und Auszügen der Europäischen Statistik (EUROSTAT) verknüpft werden. Durch intelligentes Aufbereiten und Kontextualisierung der Daten werden Erkenntnisse über die Verteilung von Geocaches in Mitteleuropa gewonnen. Dabei werden fortgeschrittene Werkzeuge aus dem GeoIT-Bereich genutzt, darunter eine PostGIS-Datenbank, der QGIS Graphical Modeler, SQL-Queries und Python-Scripting. Auf der offenen Lernplattform von OpenGeoEdu (https://learn.opengeoedu.de) ist die Analyse ausführlich beschrieben und kann von Interessierten selbst online durchgearbeitet werden. Im Rahmen des offenen Onlinekurses OpenGeoEdu kann dazu ein wissenschaftlicher Beleg eingereicht und mit Credit Points zertifiziert werden. Als offenes Lehrmaterial kann das Fallbeispiel auch durch Lehrende in GIS-Kursen oder Weiterbildungen eingebunden werden. about this event: https://pretalx.com/fossgis2020/talk/BYJJNM/

Neues vom GeoStyler (fossgis2020)
Mar 12 2020 20 mins  
GeoStyler ist eine Open Source JavaScript-Bibliothek zur einfachen Erstellung von modernen Web-Oberflächen zum kartographischen Stylen von Geodaten. Somit wird es dem Anwender möglich ohne Programmierung und Editieren von Text-Dateien (XML und co.) Styling-Vorschriften interaktiv zu gestalten und diese in diverse offene Style-Formate zu überführen. Der Vortrag stellt die Neuerungen des letzten Jahres vor und gibt einen Überblick über zukünftige Entwicklungen im GeoStyler Projekt. GeoStyler ist eine Open Source JavaScript-Bibliothek zur einfachen Erstellung von modernen Web-Oberflächen zum kartographischen Stylen von Geodaten. Somit wird es dem Anwender möglich ohne Programmierung und Editieren von Text-Dateien (XML und co.) Styling-Vorschriften interaktiv zu gestalten und diese in diverse offene Style-Formate zu überführen. Dazu können auch die zu stylenden Geodaten hochgeladen und verknüpft werden, so dass attribut-basierte Styles auf einfache Art erstellt werden können. Aktuell werden im GeoStyler folgende Formate unterstützt: **Style-Vorschriften** - OGC SLD - OpenLayers Styles - QGIS Styles - Mapbox Styles **Geodaten-Formate** - GeoJSON - OGC WFS - Shapefile Auf der FOSSGIS 2019 wurde das GeoStyler Projekt bereits präsentiert. In diesem Jahr sollen die Neuerungen des letzten Jahres anhand aktueller Beispiele, in denen der GeoStyler zum Einsatz kommt, präsentiert werden. Dazu gehört die u. a. die GeoStyler GeoServer Extension, die es erlaubt die Stile der GeoServer Layer direkt im GeoServer mittels graphischer Oberfläche zu editieren. Außerdem wird es einen Überblick über zukünftige Entwicklungen im Projekt gegeben. Quellcode auf github: https://github.com/geostyler/geostyler Online-Dokumentation: https://geostyler.github.io/geostyler/latest/index.html Demo: https://www.geostyler.org about this event: https://pretalx.com/fossgis2020/talk/M73SCJ/

Qualitätsbewertung von OpenStreetMap-Gebäudedaten – Am Beispiel der Stadtgebiete Köln und Gera (fossgis2020)
Mar 12 2020 23 mins  
Der Vortrag geht vor allem auf die Entstehung der heterogenen Datenqualität in OpenStreetMap und die Umsetzung der intrinsischen und extrinsischen Qualitätsbewertungsmethode ein. Die Methoden bewerten die OSM-Datenqualität basierend auf der OSM-Datenhistorie (intrinsisch) und im Vergleich zu amtlichen ALKIS-Gebäudedatensätzen (extrinsisch). Das Volunteered Geographic Information-Projekt OpenStreetMap (OSM) stellt aktuelle, global und frei zur Verfügung stehende Geodatensätze bereit. Diese Datensätze werden für verschiedene Anwendungen verwendet und sind eine alternative Datenquelle zu amtlichen Daten oder Fernerkundungsdaten (wie Satellitenbilder). Ein großer Nachteil der OSM-Daten besteht in der heterogenen Datenqualität. Beispielsweise ist die Validität der OSM-Gebäudedaten für eine Verwendung in einer Expositionsabschätzung bei einem Hochwasser (= Abschätzung betroffener Gebäude und Personen) fragwürdig. Für diese Daten existiert keine stabile und standardisierte Qualitätsbewertungsmethode. Daher bedarf es eigener Qualitätsbewertungsmethoden. Im Rahmen einer Masterarbeit wurde eine intrinsische und extrinsische Qualitätsbewertungsmethode für OSM-Gebäudedaten unter Verwendung in einer Expositionsabschätzung entwickelt und umgesetzt. Zur Bewertung dienen intrinsische Indikatoren und extrinsische Maße, die für bestimmte Qualitätskriterien (Vollständigkeit, geometrische Genauigkeit ...) und die Beitragsaktivität erarbeitet und umgesetzt wurden. Hierzu kamen für die intrinsischen Indikatoren die OpenStreetMapHistoryDatabase (OSHDB)-API des Heidelberg Institute for Geoinformation Technology (HeiGIT) und für die extrinsischen Maße zur Aufbereitung/Import der Daten (osmosis, osm2pgsql und norGIS-ALKIS) sowie eine PostgreSQL/PostGIS-Datenbank zum Einsatz. Die Bewertungen der Gebäude-Daten erfolgte im Bereich der Überschwemmungsflächen für die Stadtgebiete Köln und Gera. about this event: https://pretalx.com/fossgis2020/talk/UKFLSU/




TEAM Engine: Vorstellung der neusten Tests für OGC-Standards wie OGC API Features oder GeoTIFF (fossgis2020)
Mar 12 2020 24 mins  
Die TEAM Engine ist eine Engine, mit der Entwickler und Anwender Geodienste, wie WMS, und Geoformate, wie GeoPackage, testen können. Es werden aktuell mehrere neue Testsuites entwickelt, mit denen unter anderem Implementierungen der neuen OGC Standards OGC API - Features und GeoTIFF getestet werden können. Dieser Vortrag gibt eine Übersicht über alle neuen Testsuites und stellt einige von ihnen näher vor. Des Weiteren werden die aktuellen Entwicklungen im TEAM Engine Projekt aufgezeigt. Die TEAM Engine ist eine Engine, mit der Entwickler und Anwender Geodienste, wie WFS und WMS, und Geoformate, wie GML oder GeoPackage, testen können. Um die Implementierung und das Testen von GIS-Software basierend auf OGC Standards zu unterstützen, stellt das Open Geospatial Consortium (OGC) mehrere Testsuites für die TEAM Engine zur Verfügung. Die TEAM Engine ist aktuell als OSGeo-Projekt in der Inkubationsphase. Sie ist sie ein wichtiges Werkzeug, um die Interoperabilität zwischen verschiedenen Implementierungen von OGC-Standards und Clients, die diese Standards in Form von Schnittstellen, wie WFS oder WMS, oder Formaten, wie GML oder GeoPackage, nutzen, zu gewährleisten. Die TEAM Engine muss in Verbindung mit OGC Executable Test Suites (ETS) verwendet werden, um Instanzen von Geodiensten und -formaten auf Konformität mit OGC-Standards zu prüfen. Die Ausführung einer ETS erfolgt über eine Weboberfläche, eine REST Schnittstelle oder ein Kommandozeilentool. Um die Installation, Konfiguration und das Starten der TEAM Engine zu erleichtern, werden Docker-Images bereitgestellt. Es werden aktuell mehrere neue Testsuites entwickelt, mit denen unter anderem Implementierungen der neuen OGC Standards OGC API - Features und GeoTIFF getestet werden können. Auch für weitere OGC Standards wurden in jüngster Zeit Tests erstellt oder erweitert. Dieser Vortrag gibt eine Übersicht über alle neuen Testsuites und stellt einige von ihnen näher vor. Des Weiteren werden die aktuellen Entwicklungen im TEAM Engine Projekt aufgezeigt und ein Ausblick auf die Schwerpunkte der Weiterentwicklung in der Zukunft gegeben. about this event: https://pretalx.com/fossgis2020/talk/VDPQS7/

Verbindungen schaffen mit PostgreSQL Foreign Data Wrappern (fossgis2020)
Mar 12 2020 26 mins  
Über Foreign Data Wrapper können Verbindungen aus einer PostgreSQL-Datenbank heraus zu anderen externen Quellen aufgebaut werden. Dadurch müssen sich nicht mehr alle Daten, die in einem Projekt verwendet werden, auch innerhalb der PostgreSQL-Datenbank befinden. Mit unterschiedlichen Erweiterungen können Verbindungen von PostgreSQL zu Oracle, MySQL, CSV, JSON, Geodaten, OSM und vielen weite­ren Quellen geschaffen werden. Über Foreign Data Wrapper (FDW) kann aus der Datenbank heraus eine Verbindung zu anderen Datenquellen aufgebaut werden. Dadurch ist es nicht mehr notwendig, dass alle Daten, die in einem Projekt innerhalb der PostgreSQL-Datenbank verwendet werden sollen, sich auch in der Datenbank befinden müssen. Foreign Data Wrapper bringen mehr Flexibilität durch den einfachen Zugriff auf verschiedenste Datenquellen. Die Möglichkeit, auch schreibend auf externe Quellen zuzugreifen, macht das Ganze noch attraktiver. Mit unterschiedlichen Erweiterungen können Verbindungen von PostgreSQL zu Oracle, MySQL, CSV, JSON, Geodaten, OSM und vielen weite­ren Quellen geschaffen werden. Das Konzept des datenbankübergreifenden Zugriffs ist nicht PostgreSQL spezifisch, sondern wurde im SQL/MED Standard (MED – Management of External Data) bereits 2008 definiert (https://wiki.postgresql.org/wiki/SQL/MED). Foreign Data Wrappers wurden bisher nur in wenigen Softwareprodukten implementiert, darunter PostgreSQL, MariaDB und IBM/DB2. Dieser Vortrag versucht mit einfachen Beispielen das Thema zu beleuchten. about this event: https://pretalx.com/fossgis2020/talk/ZP3JZZ/



OSM-Daten verarbeiten mit Python und Pyosmium (fossgis2020)
Mar 12 2020 26 mins  
Pyosmium bietet eine Möglichkeit OSM-Rohdaten schnell in Python zu verarbeiten. Dieser Vortrag demonstriert anhand von praktischen Beispielen, wie man eigene Tools zur Datenaufbereitung schreiben kann. Er erklärt die Besonderheiten des OSM-Datenmodells und zeigt Techniken auf, wie man effizient mit den Daten umgeht. Die OpenStreetMap-Software-Welt bietet eine reiche Auswahl an Tools, um OSM-Daten für bestimmte Verwendungszwecke aufzubereiten. Es gibt zum Beispiel osm2pgsql oder Imposm für die Kartenerstellung, osm2pgrouting für Routing oder Nominatim für Geocoding. Außerhalb ihrer Anwendungen stößt man mit so aufbereiteten Daten jedoch schnell an Grenzen, da diese Tools die OSM-Daten in eine bestimmte Struktur zwingen. Oft ist dies das Simple-Feature-Modell. Das OSM-Daten-Modell mit seinen topologischen Informationen und Relationen ist hier wesentlich mächtiger. Wer mehr aus den Daten holen will, zum Beispiel für statistische Analysen oder komplexere Routinganwendungen, arbeitet besser direkt mit den OSM-Rohdaten. Pyosmium bietet eine Möglichkeit OSM-Rohdaten schnell in Python zu verarbeiten. Dieser Vortrag demonstriert anhand von praktischen Beispielen, wie man eigene Tools zur Datenaufbereitung schreiben kann. Er erklärt die Besonderheiten des OSM-Datenmodells und zeigt Techniken auf, wie man effizient mit den Daten umgeht. Dieser Vortrag ist für jene gedacht, die schon mal ein wenig mit OpenStreetMap- Daten gearbeitet haben, vielleicht mit einem der genannten Tools und die nun gerne besser verstehen möchten, was hinter den Daten steht. Minimale Programmierkenntnisse sind von Vorteil. about this event: https://pretalx.com/fossgis2020/talk/GYWH39/








Map Editor für individuelle amtliche Vektorkarten (fossgis2020)
Mar 12 2020 22 mins  
Mit dem Prototyp "Map Editor" veröffentlicht das Landesamt für Geoinformation und Landesvermessung Niedersachsen (LGLN) eine neue Open Source Software zur Erstellung individueller Basiskarten und Kartenanwendungen, basierend auf Vector Tiles. Die Anwendung bietet Werkzeuge zur Anpassung und Veröffentlichung der Vektorkarten und ist für die Nutzung auf mobilen Endgeräten optimiert. Im Rahmen des Projekts "Basisvisualisierung" erprobt das Landesamt für Geoinformation und Landesvermessung Niedersachsen (LGLN) neue Visualisierungsmöglichkeiten für amtliche Daten im Internet, optimiert für die Nutzung auf mobilen Endgeräten. Als ein Ergebnis des Projekts wird der Prototyp "Map Editor" entwickelt und als Open Source Software veröffentlicht. Es handelt sich dabei um eine Webanwendung zur Erstellung individueller Basiskarten und Kartenanwendungen, basierend auf Vector Tiles. Der Map Editor ermöglicht die Anpassung der Vektorkarte durch die Auswahl vordefinierter Basisstylings und die individuelle Anpassung einzelner Layer und Layergruppen. Das Ziel ist es dabei nicht, einen vollumfänglichen Vector-Tile-Editor anzubieten, sondern eine einfache Anpassung amtlicher Karten auch für GIS-Laien zu ermöglichen. Die Karte kann zusätzlich um Funktionen erweitert werden, wie Infoabfragen, Adresssuche und Routing. Der Map Editor kann als "Software as a Service" genutzt werden, so dass die Karten und Anwendungen online erstellt und per URL in andere Kartenanwendungen und Webseiten eingebunden werden können. Eine erste Verwendung findet der Map Editor bereits als Web-Frontend des Prototyps der AdV-Arbeitsgruppe "Smart Mapping", die sich auch mit der Entwicklung moderner Webkarten beschäftigt. Neben der Vorstellung des Entwicklungsstandes des Prototyps, wird auch über die Herausforderungen berichtet, die es in diesem Projekt hinsichtlich der Veröffentlichung von Open Source Software, agiler Entwicklung und Einführung von Innovationen gibt. about this event: https://pretalx.com/fossgis2020/talk/CFXVAL/

Wegue - OpenLayers und Vue.js in der Praxis (fossgis2020)
Mar 12 2020 21 mins  
Mit Wegue lassen sich WebGIS-Anwendungen durch eine einfache Konfigurationsdatei erstellen. Es beinhaltet bereits gängige Funktionenen wie Layerswitcher oder Geocoding. Durch die modulare Struktur kann Wegue jedoch auch leicht erweitert und individuell angepasst werden. Wegue [1] ist eine Software zum Erstellen von modernen leichtgewichtigen WebGIS-Client-Anwendungen. Die Basis dafür sind die beiden Open Source JavaScript-Frameworks OpenLayers [2] und Vue.js [3]. OpenLayers übernimmt dabei das Lesen und die Darstellung der Geoinformationen als Karte und die Prozessierung der Geo-Objekte. Vue.js wird für die Strukturierung des Projektcodes (nach MVVM) genutzt und erlaubt die Erzeugung von eigenen Web-Komponenten. Wegue verknüpft diese beiden Bibliotheken zu einer konfigurierbaren Vorlage für WebGIS-Anwendungen aller Art und stellt wiederverwendbare UI-Komponenten (z.B. Layer-Liste, FeatureInfo-Dialog, etc.) bereit. Wegue wurde kurz nach der Projektgründung auf der FOSSGIS 2018 in Bonn präsentiert. Mittlerweile ist das Projekt gereift und in einigen Realweltprojekten zum Einsatz gekommen. Dabei ist es an vielen Stellen erweitert und verbessert worden und befindet sich aktuell auf dem Weg zur Version 1.0. Der Vortrag gibt einen kurzen Überblick über das Wegue-Ökosystem sowie die Neuerungen der letzten Monate und zeigt wie Wegue-Anwendungen erstellt werden können. Außerdem werden einige Beispiele aus der Praxis präsentiert. [1] https://github.com/meggsimum/wegue [2] http://openlayers.org/ [3] https://vuejs.org/ about this event: https://pretalx.com/fossgis2020/talk/GHET3U/



Wie man mit OpenStreetMap und Open Source eine multimodale Smartphone-App für den öffentlichen Nahverkehr bauen kann (fossgis2020)
Mar 11 2020 24 mins  
Die Trufi Association e.V. bietet Open Source eine Smartphone-App für semi-formellen Verkehr an, der auf den in OpenStreetMap gespeicherten Routen basiert. Hier wird erklärt, was jeder tun kann, um diese App in die Stadt, Region oder das Land seiner Wahl zu bringen. Mit Trufi-App können Mapper und Entwickler eine multimodale Reiseplaner-App für ihre eigene Stadt, Region oder ihr Land erstellen. Insbesondere in Entwicklungsländern in Afrika, Mittel- und Südamerika sowie Südostasien, in denen hauptsächlich informeller Verkehr (keine Haltestellen, undokumentierte Strecken) fließt, aber auch hier in Deutschland. Für den Datenteil der öffentlichen Verkehrsmittel wird OSM zum Mappen der Routen verwendet. OSM2GTFS oder unsere eigenen Tools werden zum Erstellen von GTFS verwendet, welches wiederum in OpenTripPlanner gehostet wird, sodass aus der App Routen vorgeschlagen werden können. Neben den offensichtlichen Aufgaben (Routen mappen, App-Code anpassen) müssen noch viele weitere wichtige Schritte ausgeführt werden: Team aufbauen, perfekte UX für die Stadt entwickeln, veröffentlichen, finanzieren, Marketing machen … Technikseitig muss die Open-Source-Flutter-App customized werden und mit Maps versehen werden. Ich möchte praktisch aus unseren Implementierungen in Bolivien, Ghana, Äthiopien und Kolumbien berichten und was für eine Rolle OSM-Enthusiasten in Deutschland dabei spielen können. Abschließend möchte ich mit den Teilnehmern diskutieren, ob es gut oder schlecht ist, Hunderte von Busrouten in OSM zu speichern. Wir hatten dazu im Juli 2019 in der Talk-de-Mailingliste fruchtbare Diskussionen mit Vor- und Nachteilen darüber. about this event: https://pretalx.com/fossgis2020/talk/AAPZFZ/

Neuentwicklung der GDI-DE Testsuite (fossgis2020)
Mar 12 2020 28 mins  
Die GDI-DE Testsuite ist die zentrale Testplattform der GDI-DE zur Prüfung der Konformität von Geodaten und -diensten zu nationalen und internationalen Standards. Aktuell wird die Open Source Software GDI-DE Testsuite in einem umfangreichen Projekt komplett neu entwickelt. Ziele der Neuentwicklung sind u.a. die Verbesserung der Usability, die Erhöhung der Ausfallsicherheit, die flexible Integration mehrerer Test-Engines und die Erweiterung des Funktionsumfangs. Die GDI-DE Testsuite ist eine der Nationalen Technischen Komponenten der Architektur der Geodateninfrastruktur Deutschland (GDI-DE) und dient als zentrale Testplattform der Qualitätssicherung innerhalb der GDI-DE. Mit der GDI-DE Testsuite kann innerhalb der GDI-DE die Qualität für Geodaten und Geodatendienste geprüft werden. Mit Hilfe dieser zentralen Testplattform können Datenanbieter und Dienstebereitsteller ihre Geodaten und Dienste auf Konformität zu nationalen und internationalen Standards, z.B. den Vorgaben der europäischen INSPIRE-Richtlinie prüfen. Die GDI-DE Testsuite ist seit Ende September 2011 frei nutzbar und unterstützt die Anbieter von Geodaten und Geodatendiensten bei der Bereitstellung ihrer Ressourcen innerhalb der GDI-DE und der Umsetzung der INSPIRE-Richtlinie. Neben einer Webanwendung (https://testsuite.gdi-de.org) und einer Download-Möglichkeit für die lokale Nutzung, ist auch eine Schnittstelle für die Ausführung von Tests aus anderen Anwendungen heraus nutzbar. In der aktuellen Testsuite stehen heute Tests für die Konformitätsprüfung von Metadaten, Katalog-/Suchdiensten (CSW), Karten-/Darstellungsdiensten (WMS) und Downloaddiensten (WFS, Atom) bereit. Für Dienste können zusätzlich Qualitätstests zur Ermittlung von Kennzahlen zu Leistungsfähigkeit und Verfügbarkeit eines Dienstes genutzt werden. Da die heutige Anwendung zum einen auf dem veralteten und nicht weiter gepflegten Java-Framework echo3 verbunden mit einer nicht mehr zeitgemäßen Web-Oberfläche basiert und zum anderen Anforderungen an • eine erweiterte Anwendungsfunktionalität (wie z. B Integration mehrerer Test-Engines) • eine erhöhte Ausfallsicherheit und • die Einhaltung höherer Sicherheitsstandards bestehen, hat das Lenkungsgremium der GDI-DE zur Beseitigung dieser Defizite beschlossen, die GDI-DE Testsuite durch eine Neuentwicklung zu ersetzen. Mit dieser Neuentwicklung soll nun, ein neues, gleichwertiges System erstellt werden, welches zusammen mit dem bisherigen Funktionsumfang auch die benötigten funktionalen Erweiterungen auf einer zukunftssicheren Technologiebasis in Verbindung mit einer modernen Web-Oberfläche bereitstellt. Ein besonder Fokus bei der Neuentwicklung der GDI-DE Testsuite liegt dabei auf folgenden Projektzielen: • Verbesserung der Benutzerfreundlichkeit: durch die projektbegleitende Einbindung maßgeblicher Benutzergruppen ab der Konzeptionsphase erreicht werden. Dazu tragen die Berücksichtigung des Responsive Design sowie die Umsetzung von intelligenten Assistenten, kontextsensitive Tooltips und die Ausgabe von aussagekräftigen Testberichten zur Erreichung dieses Projektzieles bei. • Funktionale Erweiterbarkeit und horizontale Skalierbarkeit: Dies soll vor allen Dingen durch die Einhaltung einer Microservices-Architektur gewährleistet werden. Charakteristisch für Microservices-Architekturen ist die einfache funktionale Erweiterbarkeit. Ebenfalls beinhalten Microservices-Architekturen das Potenzial einer erhöhten Skalierbarkeit, da im Gegensatz zu anderen Architekturmustern eine horizontale Skalierung bereits auf Microservices-Ebene möglich ist und dadurch flexible Anpassungen realisierbar sind. • Verbesserte Wartbarkeit: Im Rahmen des Projektes wird eine Verbesserung der Wartbarkeit im Vergleich zur aktuellen Implementierung angestrebt. Dies soll insbesondere durch die Etablierung eines durchgängigen und weitestgehend automatisierten Deployments erreicht werden. Darüber hinaus dienen verschiedene Maßnahmen im Entwicklungsprozess wie Testautomatisierung und Code Reviews der Verbesserung der Wartbarkeit des neuen Systems. • Hochverfügbarkeit: Durch die Bereitstellung des neuen Systems innerhalb eines High-Availability (HA) -Clusters soll erreicht werden, dass die neue GDI-DE Testsuite hochverfügbar bereitgestellt wird. Im Rahmen des Entwicklungsprozesses wird dieses Projektziel durch den Einsatz von Docker und Kubernetes, aber auch durch die entsprechende Auslegung der Architektur unterstützt. Aller Voraussicht nach wird die neue GDI-DE Testsuite der Öffentlichkeit im 2. Quartal 2020 zur Verfügung gestellt werden. Im Vortrag wird der aktuelle Stand zur Neuentwicklung der GDI-DE Testsuite vorgestellt. Schwerpunkte des Vortrags werden allgemeine Erläuterungen zur Anwendung und der Einsatzbereiche sowie technische Details zur intelligenten und flexiblen Einbindung unterschiedlicher Test-Engines in eine Umgebung sein. about this event: https://pretalx.com/fossgis2020/talk/XUSWXK/




Automatische Korrektur von ÖV-Stationen in OSM (fossgis2020)
Mar 12 2020 27 mins  
ÖV-Stationen bestehen üblicherweise aus mehreren Punkt-, Linien- oder Flächeninformationen, z.B. Haltepunkten, Gleisen oder Bahnhofsgebäuden u.a.. Diese Objekte können in OSM mittels übergeordneter Relationen verknüpft werden, allerdings fehlt diese Gruppierung häufig oder ist unvollständig. Wir stellen ein Tool vor, das die Elemente von ÖV-Stationen als Paare von Stationsnamen und -koordinaten abstrahiert und mittels Ähnlichkeitsmaßen und maschinellem Lernen OSM-Stationen korrigieren kann. Wir stellen ein Tool (staty) vor, das aus ÖV-Stationsdaten in OSM Tupel von Stationsnamen und -koordinaten extrahiert. Die in OSM bereits als gruppiert markierten Stationen werden als ground truth verwendet und damit ein Klassifikator trainiert, der entscheiden kann, ob zwei Name/Koordinate Tupel dieselbe Station beschreiben. Die Hauptschwierigkeit liegt darin, dass dieselben Stationen teilweis deutlich voneinander abweichende Bezeichnungen haben können (z.B. "Hbf" vs. "Freiburg im Breisgau, Hauptbahnhof"), dass z.B. Ortsnamen für die Ähnlichkeit zweier Stationen irrelevant sind, wenn sie nah beieinander liegen, oder dass die mittlere Distanz von z.B. Haltepunkten derselben Stationen abhängig ist von der Art der Stationen. Z.B. wird die mittlere paarweise Distanz zwischen Haltepunkten in einer Station "Hauptbahnhof" üblicherweise deutlich größer sein als in einer Station "Dorfstraße". Wir nutzen unseren auf OSM-Daten trainierten Klassifikator, um die OSM-Daten selbst wieder zu korrigieren. Dazu führen wir ein auf den Ähnlichkeitswerten unseres Klassifikators beruhendes Clustering durch und geben die Differenz zwischen dem Clustering und der Stationsgruppierung in OSM als Editiervorschläge aus. Da unser Ansatz z.B. auch verschiedene Namen (ref_name, alt_name, name, ...) innerhalb einzelner Nodes als separate Elemente extrahiert, können auch Fehler innerhalb einzelner Nodes erkannt werden (z.B. ein nicht korrekt durch alle Namen nachgeführter Namenswechsel oder Schreibfehler). about this event: https://pretalx.com/fossgis2020/talk/VAXSHT/

Offene Smart Farming Produkte aus offenen Satellitendaten (fossgis2020)
Mar 12 2020 27 mins  
Das Projekt Open Forecast entwickelt eine generische Infrastruktur zur Verarbeitung offener Daten auf HPC-Systemen. Ein Anwendungsfall hat zum Ziel, Produkte für Smart Farming in der Landwirtschaft aus offenen Satellitendaten abzuleiten. Die Ergebnisse werden als offene Daten als OGC-konforme Geodatendienste verfügbar gemacht werden. Wir präsentieren in unserem Beitrag den aktuellen Stand der Verarbeitungskette unter Verwendung des ESA Frameworks sen2agri. Das Projekt [Open Forecast](https://open-forecast.eu/) entwickelt eine generische Infrastruktur zur Verarbeitung offener Daten auf High-Perfomance-Computing-Systemen (HPC). Diese Infrastruktur wird anhand zweier Anwendungsfälle aufgebaut. Der erste Anwendungsfall untersucht die Möglichkeit, eine Vorhersage zur Feinstaubbelastung im Großraum Stuttgart zu berechnen. Die offenen Daten des Citizen-Science Projekts "luftdaten.info" sollen dabei zur Evaluierung des Modells herangezogen werden. Das Feinstaubmodell selbst basiert auf einem 3D Klimamodell mit großskaligen Wetterdaten als Eingabewerten sowie einem Geländemodell als untere Randbedingung. Aktuell untersucht wird die Einbeziehung von weiteren Feinstaubquellen, die beispielsweise aus Verkehrsdaten gewonnen werden. Der zweite Anwendungsfall leitet Produkte für die Landwirtschaft (Smart Farming) aus frei verfügbaren Satellitendaten ab. Hierzu werden multispektrale [Sentinel-2](https://www.esa.int/Applications/Observing_the_Earth/Copernicus/Sentinel-2) Daten der [ESA Copernicus Mission](https://www.esa.int/Applications/Observing_the_Earth/Copernicus) verwendet. Dazu wurden die angebotenen Satellitendaten vorverarbeitet (u. a. Atmospärenkorrektur) und Datenprodukte wie zum Beispiel spezifische Vegetationsindizes oder Mosaike erstellt. Diese dienen als Proxy für Aussagen über den Status der grünen Vegetation oder der Pflanzengesundheit. Des weiteren wird ein anueller Index gerechnet, der die Beurteilung der Landnutzung über mehrere Jahre hinweg erlaubt. Die Ergebnisse aus dem Projekt sollen wieder als offene Datenproduke, OGC- und INSPIRE-konforme Geodatendienste konforme Schnittstellen verfügbar gemacht werden. Im Fokus steht die Nutzbarkeit der Produkte in GIS über Webservices. Wir präsentieren in unserem Beitrag den aktuellen Stand der Verarbeitungskette unter der Verwendung der Software sen2agri, die von der ESA zur Bearbeitung von Sentinel-2 Daten bereitgestellt wird. about this event: https://pretalx.com/fossgis2020/talk/PHJ8VG/


Einführung zu GDAL/OGR: Geodaten mit der Kommandozeile verarbeiten (fossgis2020)
Mar 11 2020 61 mins  
GDAL/OGR ist bekannt dafür alle erdenklichen Geodatenformate lesen und schreiben zu können. Es verfügt jedoch auch über zahlreiche Funktionen um Geodaten zu filtern, zu analysieren und zu verarbeiten. Dieser Vortrag demonstriert anhand von Beispielen wie man gängige Operationen für Raster- und Vektordaten mit Hilfe der Kommandozeile automatisert. **GDAL/OGR** ist eine Programm-Bibliothek die verschiedene [Vektor-](https://gdal.org/drivers/vector/index.html) und [Rasterformate](https://gdal.org/drivers/raster/index.html) lesen und schreiben kann. Sie ist in C/C++ geschrieben, allerdings kann man auch mit anderen Programmiersprachen wie Python oder R darauf zugreifen. Es gibt zahlreiche Programme für die **Kommandozeile** die in diesem Vortrag vorgestellt werden. Behandelt werden unter anderem folgende Themen: - Virtuelle Raster erstellen mit [gdalbuildvrt](https://gdal.org/programs/gdalbuildvrt.html) - Raster Pyramiden bauen mit [gdaladdo](https://gdal.org/programs/gdaladdo.html) - Raster umprojezieren mit [gdalwarp](https://gdal.org/programs/gdalwarp.html) - Kacheln erzeugen mit [gdal2tiles.py](https://gdal.org/programs/gdal2tiles.html) - Informationen über Vektordaten erhalten mit [ogrinfo](https://gdal.org/programs/ogrinfo.html) - Vektordaten konvertieren und umprojezieren mit [ogr2ogr](https://gdal.org/programs/ogr2ogr.html#ogr2ogr) - Vorstellung von wichtigen Treibern wie CSV, PostGIS, GeoPackage, GPX - Überblick über fortgeschrittene Funktionen wie SQL, räumliche Begrenzung oder Filterung ##### Links - [Blogeintrag über GDAL/OGR](https://jakobmiksch.eu/de/post/gdal_ogr/) von Jakob Miksch - [Vortrag](https://av.tib.eu/media/43047) von Jakob Miksch auf der AGIT 2019 - [Website](https://gdal.org/) von GDAL/OGR about this event: https://pretalx.com/fossgis2020/talk/339AY9/




QGIS - A SPARQLing Unicorn? Eine Einführung in Linked Open Geodata zur Integration von RDF in QGIS Plugins (fossgis2020)
Mar 12 2020 7 mins  
Die *Linked Open Data Cloud* bietet freie interdisziplinäre Daten als *RDF* im WWW an. Auch Geodaten werden durch *Wikidata* oder *LinkedGeoData* zur Verfügung gestellt. Es fehlt jedoch der Support von GIS Applikationen zur Verarbeitung dieser LOD. Das **[SPARQLing Unicorn QGIS Plugin](https://plugins.qgis.org/plugins/sparqlunicorn)** bietet die Möglichkeit SPARQL Abfragen an SPARQL Endpoints zu stellen und somit Linked Data in die Welt der freien Software *QGIS* zu integrieren. Die Linked Open Data Cloud bietet seit vielen Jahren große Datenrepositorien im WWW an, die für verschiedene Zwecke von unterschiedlichen Communities genutzt werden können. Die Stärke von Linked Open Data (LOD) ist hierbei die Verknüpfung von Informationen aus unterschiedlichsten dezentral gehosteten Wissensdomänen. Für die Geoinformatik haben sich beispielsweise community-basierende Datenrepositorien wie [Wikidata](http://wikidata.org), [LinkedGeoData](http://linkedgeodata.org) oder [DBpedia](https://wiki.dbpedia.org) gebildet. Zudem bieten Gazetteer-Repositorien wie [Geonames](https://www.geonames.org) oder [Pleiades](https://pleiades.stoa.org) für den zeitgeschichtlichen Raum, aber auch administrative Provider wie der [Ordnance Survey UK](https://data.ordnancesurvey.co.uk) und [Ordnance Survey Ireland](http://data.geohive.ie), ihre Geodaten als LOD an. Leider haben all diese Ressourcen in der Geo-Community bisher leider nur niederrangige Bedeutung erlangt. Den Grund dafür sehen wir in einem nicht vorhandenen Support von GIS Applikationen für die Verarbeitung von LOD. *Triplestores* und *SPARQL* werden zur Zeit weder von *GIS* Software, *GeoServer* Implementierungen oder *OGC*-Services unterstützt. Die Linked Data Serialisierung [GeoJSON-LD](https://geojson.org/geojson-ld/) birgt zwar aufgrund einiger noch offener Issues Herausforderungen, wird allerdings nicht oft wie seine ‘unsemantische Schwester’ *GeoJSON*, in Applikationen genutzt. Genau hier setzt das [SPARQLing Unicorn QGIS Plugin](https://plugins.qgis.org/plugins/sparqlunicorn) an, welches die Ausführung von Linked Data Anfragen in (Geo)SPARQL an ausgewählte Triplestores und geofähigen SPARQL Endpoints ermöglicht. Die Ergebnisse werden in GeoJSON Layer konvertiert, sodass sie direkt in QGIS nutzbar sind. Für die Zukunft soll das *SPARQLing Unicorn Plugin* mit extrahierten Konzepten ausgewählter Ontologien Benutzern die Möglichkeit bieten, einfache Abfragen wie “Gib mir alle Flughäfen in BOUNDINGBOX mit direkt verbundenen Relationen” oder “Gib mir alle Flughäfen in LAND_X” automatisch zu generieren und somit das Laden dynamischer Inhalte der Datenrepositorien erleichtern. Es ist erwünscht, dass die Geocommunity aktiv an der (Weiter-)Entwicklung des Plugins teilnimmt und so die Welt der LOD im Geokontext weiter bekannt macht. Dazu steht der Quellcode frei auf [Github](https://github.com/sparqlunicorn/sparqlunicornGoesGIS) zur Erweiterung zur Verfügung. Der Vortrag gibt einen Einstieg in die Modellierung von Linked Open (Geo-)Data, in die Abfragesprache SPARQL, deren Erweiterung GeoSPARQL, bestehende (Geo-)Ressourcen in der Linked Open Data Cloud, sowie die Funktionsweise des *SPARQLing Unicorn QGIS Plugins*, dessen zukünftige Erweiterungen und aktuelle Entwicklungen in der Erweiterung der jeweiligen Standards. Das Unicorn freut sich auf Mithilfe aus der Geo-Community! about this event: https://pretalx.com/fossgis2020/talk/SQDQHJ/




FOSS in der Cloud (fossgis2020)
Mar 12 2020 25 mins  
Mit den täglich wachsenden Geodatenpools steigen Anforderungen an Hard- und Software. Lokale Installationen sind in den letzten Jahren vermehrt durch verteilte Systeme in der Cloud abgelöst worden, welche sich auch im Bereich der FOSS etabliert haben. Dieser Vortrag gibt einen Überblick über Konzepte des Cloud Computings, der verfügbaren Tools und Voraussetzungen für eine erfolgreiche Skalierbarkeit, sowie Erfahrungen und Empfehlungen am Beispiel von actinia, GRASS GIS, GeoServer und SHOGun. Mit den täglich wachsenden Geodatenpools, z.B. angereichert durch das Copernicus oder Landsat Programm, steigen die Anforderungen an Hard- und Software für die Geodatenprozessierung (nicht nur) im Bereich der Fernerkundung stetig an. Lokale Installationen können dabei die Datenmengen und Anforderungen an Echtzeit-Analysten kaum stemmen und sind daher in den letzten Jahren vermehrt durch verteilte Systeme in der Cloud abgelöst worden. Dieser Trend macht auch vor dem Bereich der FOSS keinen Halt und hat sich seither etabliert. Dieser Vortrag soll einen Überblick über die Konzepte des Cloud Computings, der verfügbaren Tools und Voraussetzungen der serviceorientierten Architektur für eine erfolgreiche Skalierbarkeit geben. Anschließend wird anhand eines konkreten Beispiels basierend auf den Komponenten actinia, GRASS GIS, GeoServer und SHOGun demonstriert wie diese für einen reibungslosen Betrieb in der Cloud angepasst werden müssen. Abgerundet wird der Vortrag durch Erfahrungen und daraus abgeleiteten Empfehlungen, die während der Vorbereitung und zur Laufzeit der Architektur gesammelt wurden. about this event: https://pretalx.com/fossgis2020/talk/MNKHF8/

Visualisierung und Analyse von Satellitenbildern mit der EnMAP-Box (fossgis2020)
Mar 12 2020 55 mins  
Die EnMAP-Box ist ein QGIS Plugin zur Visualisierung und Analyse von multi- und hyperspektralen Fernerkundungsdaten. In der Session werden die wichtigsten Konzepte und Funktionalitäten anhand praktischer Beispiele live demonstriert. Erdbeobachtungsdaten stellen eine immer wichtigere Grundlage für raumbezogene Analysen in Wirtschaft und Wissenschaft dar. Gleichzeitig steigt ihre Verfügbarkeit infolge neuer Fernerkundungssatelliten und offener Datenzugangsrichtlinien stetig an. Erdbeobachtungsprogramme wie das europäische Copernicus der ESA und das amerikanische Landsat der NASA/USGS erfassen multispektrale Fernerkundungsdaten flächendeckend weltweit und mit hoher zeitlicher Dichte. Komplementär dazu liefern hyperspektrale Satellitenmissionen, wie die deutsche EnMAP Mission (www.enmap.org), Daten mit hoher spektraler Auflösung. Diese Entwicklung hat auch die Nachfrage nach freier und quelloffener Software zur Analyse großer und mehrdimensionaler Rasterdatenmengen in Kombination mit anderen GIS-Daten erhöht. Da die Anforderungen einer professionellen Fernerkundungsanalyse oft über die Möglichkeiten klassischer GIS-Software hinausgehen, entwickelt die Humboldt-Universität zu Berlin seit mehr als 10 Jahren die EnMAP-Box, die seit 2019 als QGIS Plugin zur Verfügung steht. In der Demo-Session werden die EnMAP-Box und ihre Möglichkeiten anhand der folgenden Themen vorgestellt: • Multi- und Hyperspektrale Daten: was ist das? • Wo bekomme ich Landsat oder Sentinel Daten her, und wie kann ich sie sinnvoll visualisieren? • Kunstrasen, Wiese, Wald, Asphalt: Spektrale Eigenschaften unterschiedlicher Oberflächen und Landbedeckungen • Erstellung und Verwalten von Spektralbibliotheken: in situ, im Bild oder im Labor: wo kommen meine Spektren her? • Maschinelles Lernen einfach: Erstellung einer Landnutzungskarte mittels Random Forest oder Support Vector Machines Classification • Automatisieren einer Prozessierungskette mit Hilfe des QGIS Processing Frameworks: so einfach lassen sich EnMAP-Box Algorithmen zu einem Workflow kombinieren • EnMAP-Box für Programmierer: Möglichkeiten der EnMAP-Box Python API Referenzen: https://enmap-box.readthedocs.io http://www.enmap.org The EnMAP-Box project is part of the EnMAP Core Science Team activities (www.enmap.org), funded by the German Aerospace Center (DLR) and granted by the Federal Ministry of Economic Affairs and Energy (BMWi, grant no. 50EE1529). about this event: https://pretalx.com/fossgis2020/talk/ZXTALA/

GRASS GIS in der Cloud: Actinia-Geoprozessierung (fossgis2020)
Mar 12 2020 18 mins  
Ursprünglich GRaaS (GRASS as a Service) genannt, wurde actinia entwickelt, um GRASS-GIS-Funktionalität über eine HTTP REST API bereitzustellen. GRASS GIS Locations, Mapsets und Geodaten werden zu Ressourcen, die per REST verwaltet und visualisiert werden können. Actinia folgt dem Paradigma, Algorithmen zu Clouddaten zu bringen und unterstützt u.a. persistente und flüchtige Berechnung, Benutzerverwaltung zur Begrenzung von Pixeln, Prozessen und Berechnungsdauer. Ursprünglich GRaaS (GRASS as a Service) genannt, wurde actinia (https://actinia.mundialis.de) entwickelt, um die GRASS-GIS-Funktionalität über eine HTTPS REST API bereitzustellen. GRASS GIS Locations, Mapsets, Vektor- und Rasterdaten sowie raum-zeitliche Daten werden zu Ressourcen, die per REST verwaltet und visualisiert werden können. Mit den bestehenden (z.B. Landsat) und in den letzten Jahren neu entstehenden (Copernicus Sentinel) großen Geodatenpools, die Tag für Tag wachsen, soll actinia dem Paradigma folgen, Algorithmen zu den Clouddaten zu bringen. Actinia ermöglicht es, eine große Menge an Geoinformationen aufzubereiten, zu analysieren und bereitzustellen, ohne dass Kenntnisse der Daten, der Analyse, der geeigneten Software zur Automatisierung oder skalierbarer Hardware-Ressourcen erforderlich sind. Einige der Funktionalitäten sind persistente und flüchtige Berechnung, Benutzerverwaltung zur Begrenzung von z.B. Pixeln, Prozessen und Berechnungsdauer sowie das Loggen von API-Aufrufen und verwendeten Ressourcen durch jeden Benutzer. Ein weiterer Vorteil ist die einfache Installation mit Docker. Bei der Installation in einer Cloud-Umgebung mit OpenShift oder Kubernetes verwaltet der integrierte Loadbalancer das Cluster automatisch. Dem Geist von FOSS folgend sind wir stolz, ein OSGeo-Community-Projekt geworden zu sein und freuen uns auf die Erweiterung der actinia-Community. Der Vortrag gibt eine Übersicht über Konzepte und grundlegende Funktionalitäten von Actinia. about this event: https://pretalx.com/fossgis2020/talk/KNUBLU/

Räumliche Verortung von textbasierten Social-Media-Einträgen am Beispiel von Polizei-Tweets (fossgis2020)
Mar 12 2020 23 mins  
Ziel der Forschungsinitiative ist die Untersuchung der räumlichen Verortung deutscher Tweets auf Basis von verfügbaren Standardwerkzeugen. Zunächst werden die spezifischen Herausforderungen im Kontext der Sprache und der Eigenschaften von Tweets betrachtet. Die darauffolgende Entwicklung eines grundlegenden, algorithmischen Ablaufs schließt mit der Implementierung eines Prototyps ab. Dieser bildet die Basis für die Evaluation der Genauigkeit und führt zur Betrachtung des Verbesserungspotentials. Die Forschungsinitiative untersucht Möglichkeiten zur Verortung von textbasierten Social-Media-Einträgen mit verfügbaren Bibliotheken und Diensten. Der Fokus liegt hierbei auf deutschen Kurznachrichten (Tweets) des Mikrobloggingdienstes Twitter. Die Bedeutung der Verarbeitung speziell deutscher Sprache wird seit der steigenden Nutzung von Twitter in der öffentlichen Verwaltung zunehmend relevanter. Allein die Polizei verwaltet im Jahr 2017 schon mehr als 200 Accounts auf Twitter und Facebook (Anzlinger, 2019). In diesem Zusammenhang werden die Kurznachrichten häufig von Büropersonal verfasst, sodass die in Tweets optional enthaltene Standortangabe keine Information im Zusammenhang mit dem textlichen Inhalt liefert. Der methodische Ansatz für das Vorhaben ist wie folgt: Zunächst werden die Herausforderungen durch eine Literaturrecherche sowie durch einen vorverarbeitenden Schritt zur Identifizierung besonderer charakteristischer Merkmale in einem Tweet adressiert. Anschließend folgt die Definition eines algorithmischen Ablaufes aus den gewonnenen Erkenntnissen. Die Auswahl geeigneter und verfügbarer Werkzeuge liefert die Basis für die prototypische Umsetzung. Eine Evaluation der Ergebnisse bewertet die Untersuchung. Als spezielle Herausforderung bei der Verortung von deutschen Tweets zeigt sich insbesondere die maximale Zeichenlänge jener von 280 Zeichen. Eine im November 2018 veröffentlichte Studie benennt die durchschnittliche Länge eines Tweets mit lediglich 33 Zeichen (AFP, 2018). Um mit dieser Einschränkung eine Vielzahl an Informationen zu teilen, ist es üblich in den verfassten Kurznachrichten die Grammatik des Textes zu vernachlässigen. Zusätzlich werden auch Emoticons und Abkürzungen verwendet, um die Kurznachrichten mit der gewünschten Information anzureichern. Eine weitere Schwierigkeit besteht darin, dass häufig auch Wörter der englischen Sprache in eine deutsche Struktur eingebettet werden. Zudem sind die Ortsangaben oft unkonkret formuliert. Problematisch wird es v. a. dann, wenn ein in Deutschland mehrfach existierender Stadtname erwähnt wird. Des Weiteren werden Städtenamen teilweise nicht vollends ausgeschrieben, sondern als Abkürzung angegeben – bspw. in Anlehnung an die deutschen KFZ-Kennzeichen. Der entwickelte algorithmische Ablauf lässt sich wie folgt gliedern: In einem vorverarbeitenden Schritt werden Umlaute ersetzt sowie Sonderzeichen, Emoticons und Links entfernt. Für die Ermittlung der Ortsnamen unterteilt der Natural Language Prozessor spaCy (Explosion AI, 2019) die Tweets in Entitäten. Um zu überprüfen, ob eine Abkürzung eines KFZ-Kennzeichens enthalten ist, werden alle Eigennamen mit einer Datenbank abgeglichen und ggf. im Tweet ersetzt. Anschließend wird der Geocoder HERE (HERE Global B.V., 2019) eingesetzt, um die Koordinaten zu generieren. Alle ohne Ortsbezug bestehenden Eigennamen werden ergebnislos zurückgegeben und nicht weiterverfolgt. Im Rahmen der Auswahl geeigneter Werkzeuge wurden Alternativen gegenübergestellt. Bei einem Vergleich verschiedener Natural Language Prozessoren wurden kommerzielle Anbieter ausgeschlossen, da diese keinen Einblick in den Ablauf gewähren und zudem nicht konfiguriert werden können. Eine zentrale Anforderung für die Sprachanalyse ist der sichere Umgang mit der deutschen Sprache sowie der Umgang mit den speziellen Eigenschaften von Tweets. Bei einem zu verwendenden Geocoder galt die Untersuchung sowohl kommerzieller Produkte als auch Open Source Software. Als erfolgreiche Open Source Alternative zur Ermittlung von Koordinaten aus Ortsnamen wurde OSMNames (Klokan Technologies GmbH, 2016) erkannt. Der Nachteil daran ist, dass die Namen in englischer Sprache abgespeichert sind und die deutsche Bezeichnung nur in den alternativen Namen vermerkt ist. Mit dem kommerziellen Anbieter HERE lässt sich eine große Anzahl an Abfragen kostenlos durchführen und wurde deshalb OSMNames gegenübergestellt. Aufgrund der Ortsnamen in deutscher Sprache lassen sich mit HERE bessere Ergebnisse erzielen, sodass dieser Dienst eingesetzt wird. Der beschriebene Prozess wurde in einem Prototyp implementiert. Der Nutzer wählt in einer Webanwendung eine Polizeibehörde aus, deren Tweets verortet werden sollen. Das Programm bezieht die Tweets mit Hilfe der Twitter API und analysiert diese nach o. g. Verfahren. Die Ergebnisdarstellung folgt auf einer Karte. Zur Evaluation wurde ein Test mit 100 Tweets von verschiedenen Polizeibehörden durchgeführt, welche eine unterschiedliche Anzahl an Ortsangaben beinhalten. Dabei fand eine Analyse der Tweets sowohl mit der entstandenen Software als auch manuell statt. Die Untersuchung betrachtete zunächst den Natural Language Prozessor sowie den Geocoder getrennt voneinander, um anschließend das Ergebnis nach dem Ablauf des gesamten Programms zu prüfen. Da spaCy den Text in Entitäten unterteilt, folgte eine Zuordnung dieser in die Kategorien „richtig“, „falsch“ und „nicht erkannt“. Innerhalb der 100 Tweets ermittelte spaCy 91 Ortsnamen und 118 sonstige Eigennamen – 19 Ortsangaben wurden nicht erkannt. Bei einer Übermittlung lediglich vollständiger Ortsnamen an den Geocoder ordnete dieser 82 Namen richtig, 13 nicht erkennbar und fünf falsch zu. Das Ergebnis des gesamten Programmablaufs betrug 65 korrekt ermittelte, fünf falsche und 29 nicht erkannte Orte. In den Tweets werden außerdem Himmelsrichtungen genutzt, um einen Bereich innerhalb der Stadt einzugrenzen. Diese werden vom Algorithmus ebenfalls erkannt, obwohl nicht alle Städte einen danach benannten Stadtteil besitzen. In dem Fall kann die Ortsangabe nur auf die Genauigkeit der Stadt bestimmt werden. Zudem waren Autobahnen, Kreise und Bundesländer nicht hinterlegt. Bei Hinzunahme dieser wird die Anzahl nicht erkannter Ortsangaben signifikant sinken. Die größte Verbesserung des gesamten Prozesses ließe sich erreichen, wenn spaCy mit einem Trainingsdatensatz deutscher Polizei-Tweets trainiert wird. Dadurch können die Entitäten direkt nach dem Attribut „Location“ abgefragt werden, sodass keine anderen Ortsnamen zu fehlerhaften Ergebnissen führen. Darüber hinaus wäre eine vollständigere Ermittlung der Ortsangabe möglich. Das Ergebnis der Untersuchung legt dar, dass verfügbare Bibliotheken und Dienste eine solide Basis für die Verortung von Tweets liefern können. Sie führen jedoch nicht zu einem akzeptablen Niveau, weshalb eine Prozesskette mit weiteren Zwischenschritten entwickelt werden muss. Exemplarisch dient bei dieser Untersuchung der eingesetzte Abgleich von Städtenamen als KFZ-Abkürzung sowie die spezielle Behandlung von mehrdeutigen Ortsangaben (z. B. Frankfurt) durch Nutzung der räumlichen Distanz zur twitternden Stelle. Literatur: AFP. (31. Oktober 2018). Ein Jahr nach der Verdopplung der Twitter-Textlänge sind die Tweets... kürzer. Von Stern: https://www.stern.de/news/ein-jahr-nach-der-verdopplung-der-twitter-textlaenge-sind-die-tweets----kuerzer-8426332.html Anzlinger, J. (13. November 2019). Hier spricht die @Polizei. Von Süddeutsche Zeitung: https://www.sueddeutsche.de/panorama/staatsgewalt-auf-social-media-hier-spricht-die-polizei-1.3645986 abgerufen Explosion AI. (27. Juli 2019). spaCy. Von https://spacy.io/ abgerufen HERE Global B.V. (27. Juli 2019). Developer. Von HERE: https://developer.here.com/ abgerufen Klokan Technologies GmbH. (2016). OSM Names. Von https://osmnames.org/docs/ about this event: https://pretalx.com/fossgis2020/talk/QJBX8R/




Kartenherstellung zwischen Lizenzen, Daten, Programmcode und Darstellung (fossgis2020)
Mar 11 2020 27 mins  
Das Urheberrecht schützt sowohl die persönlich geistige Schöpfung (Kreativität) von Personen als auch Datenbanken. Der Vortrag untersucht Fragen, die sich stellen, wenn virale Lizenzen (Copyleft) von Software, Darstellungsregeln (rendering rules) und Datenbank (z.B. ODbL) im GIS oder Renderer zusammentreffen. In seiner Grundkonzeption geht das Urheberrecht davon aus, dass ein Werk auch eine stoffliche Einheit bildet. Das Gemälde befindet sich auf einer Leinwand, der Text auf einer Buchseite. Auf den ersten Blick ist dies auch in der digitalen Welt nicht anders. Text oder Grafik befinden sich in einer Datei, die dargestellt wird. Auf den zweiten Blick ist die Lage nicht mehr ganz so klar. Bei der Darstellung digitaler Inhalte ist immer auch Software beteiligt. Software genießt aber selbst ebenfalls Urheberrechtsschutz. Datenbanken mit geographischen Informationen und Darstellungeregeln für den Renderer können ebenfalls durchs Urheberrechtsgesetz geschützt sein. Wenn etwas durch das Urheberrechtsgesetz geschützt ist, dann ist eine Nutzung nur unter Berücksichtigung der jeweiligen Lizenz/Nutzungsbedingung möglich. Doch welche Lizenz setzt sich am Ende durch, wenn mehrere Copyleftlizenzen für Software, Daten und Rendererregeln bei der Kartenherstellung aufeinander treffen? Der Vortrag gibt Antworten auf diese Frage ... about this event: https://pretalx.com/fossgis2020/talk/MYTFXF/

FAIRe Daten und FAIRe Software in der Biodiversitätsforschung (fossgis2020)
Mar 11 2020 30 mins  
Der Verlust der biologischen Vielfalt und der Klimawandel gehören zu den zentralen Herausforderungen der Menschheit. Deshalb werden in der Wissenschaft vermehrt großflächig raumbezogene Vektor- und Rasterdaten auf Grundlage der FAIR-Prinzipien verwaltet und durch Anwendung skalierbarer Verarbeitungs- und Analysesoftware neue Erkenntnisse gewonnen. Dieser Beitrag gibt einen Überblick zu aktuellen Entwicklungen zum Forschungsdatenmanagement in Deutschland, Europa und darüber hinaus. Geo-Daten können durch unterschiedlichste Sensoren günstig erfasst und über das Internet allen zur Verfügung gestellt werden. Insbesondere im Bereich der Biodiversitätsforschung ergeben sich dadurch neue Möglichkeiten Methoden zu entwickeln und Erkenntnisse zu gewinnen, um dem drohenden Biodiversitätsverlust entgegenzutreten. Voraussetzung hierfür ist aber ein konsequent umgesetztes Forschungsdatenmanagement, bei dem die raumbezogenen Daten nach den FAIR Prinzipien verwaltet werden. Dabei ist FAIR ein Akronym für findability, accessibility, interoperability, und reusability. In Deutschland soll deshalb in den kommenden Jahren eine nationale Forschungsdateninfrastruktur (NFDI) entstehen, um insbesondere die Geo-Datenbestände von Wissenschaft und Forschung systematisch zu erschließen, nachhaltig zu sichern und zugänglich zu machen sowie auf nationaler und internationaler Ebene interdisziplinär zu vernetzen. NFDI setzt dabei nicht nur auf die reine Datenerfassung, sondern ebenfalls auf die nachhaltige Entwicklung und Austausch von Softwarewerkzeugen, um damit Forschungsergebnisse nachvollziehbar und reproduzierbar zu machen. Hierbei sollen in diesem Beitrag Antworten auf die Frage gegeben werden, wie die FAIR-Prinzipien sich auf Softwarewerkzeuge übertragen lassen, die für die skalierbare Verarbeitung und Analyse von Geo-Daten eingesetzt werden. about this event: https://pretalx.com/fossgis2020/talk/DH3H9D/




Weniger ist mehr - zur Auswahl darzustellender Elemente in der digitalen Kartographie (fossgis2020)
Mar 11 2020 25 mins  
Die Auswahl von dem, was man in einer Karte darstellt, ist von entscheidender Bedeutung für deren Lesbarkeit. In Karten auf Grundlage von OpenStreetMap-Daten wird diese Auswahl für viele wichtige Elemente durch subjektive Klassifizierungen oder die Größe subjektiver Beschriftungs-Geometrien vorgenommen, welche eigentlich in OpenStreetMap nichts zu tun haben. Dieser Vortrag gibt einen Überblick über Ansätze zur Bewertung der Bedeutung von Objekten für den Zweck der Auswahl bei der Darstellung. Die Auswahl von Datenelementen nach ihrer Bedeutung ist ein elementarer Arbeitsschritt bei der Produktion von Karten. Bei der regelbasierten digitalen Kartographie passiert dies zwingendermaßen auf Grundlage von aus den verwendeten Daten abgeleiteten Kriterien. In OpenStreetMap-Karten erfolgt dies traditionell bei der Auswahl zentraler Karten-Elemente, insbesondere bei kleinen Maßstäben, oft jedoch nach eher zweifelhaften Kriterien: * Die Auswahl von dargestellten Siedlungen geschieht auf Grundlage einer weitgehend subjektiven Klassifikation als city/town/village/hamlet/isolated_dwelling. * Die Auswahl von Straßen geschieht nach der global uneinheitlichen, teils ebenfalls subjektiven aber in jedem Fall oft praktisch schwer überprüfbaren Klassifikation in trunk/primary/secondary/tertiary/unclassified. * die Auswahl von darzustellenden Beschriftungen geschieht oft auf Basis der Größe von in ihrer Ausdehnung nicht überprüfbaren und damit subjektiven Beschriftungs-Polygonen. Der Vortrag soll einen Überblick darüber geben, wie man durch Analyse der Daten auf Grundlage überprüfbarer Attribute und Geometrien Bewertungen ableiten kann, welche eine objektivere, einheitlicherere und besser nachvollziehbare Auswahl ermöglichen und damit eine bessere Karten-Darstellung. about this event: https://pretalx.com/fossgis2020/talk/YQGPNJ/


Von ArcGis nach QGIS (fossgis2020)
Mar 11 2020 21 mins  
Für die Konvertierung von ArcGIS-Projekten in QGIS-Projekte gibt es derzeit verschiedene Ansätze. Die australische Firma North Road entwicklet zur Zeit ein Tool zum Reverse-Engineering der Binärdateien. GeoCats Bridge priorisiert dagegen den Export der ArcGIS-Layer als Web Services. An einer nativen Toolbox arbeitet die WhereGroup, welche Projektdaten als QGIS-XML exportiert. Der Vortrag beschreibt die unterschiedlichen Vorgehensweisen und stellt Vor- und Nachteile einzelnen Verfahren gegenüber. ArcGis speichert seine Projekte in einer binären MXD-Datei, die nicht ohne weiteres von QGIS gelesen werden kann. Um seine Projekte trotzdem auch unter QGIS bearbeiten zu können, gibt es verschiedene Ansätze aus der OpenSource-Community: Slyr ist ein von der australischen Firma North Road entwickeltes QGIS-Plugin, welches den Import von ArcGis Projekten ermöglicht. Per Drag-and-Drop können ArcGis-Dateien direkt in QGIS eingefügt werden. Die Binärdaten werden per Reverse-Engineering ausgelesen und nutzbar gemacht. Das Tool befindet sich noch in der Entwicklungsphase, einzelne Funktionen stehen jedoch bereits zur Verfügung. GeoCat bietet mit Bridge die Möglichkeit ArcGis-Projekte als WMS, WFC oder anderen Webdiensten verfügbar zu machen. So kann ein Projekt über Umwege auch in QGIS genutzt werden. Diese Lösung richtet sich also vorrangig an WebServer wie Map- oder GeoServer. Die WhereGroup entwickelt ein auf Python basierendes Tool weiter, dessen Grundlage ein Projekt von Allan Maungu ist. Die Idee ist hier, die Projektdaten von ArcGis als QGIS-(XML)-Datei zu exportieren. Mithilfe von ArcObjects, die das Grundgerüst von ArcGis bilden, kann so auf alle Klassen und ihre Eigenschaften zugegriffen werden, um sie in ein QGIS lesbares Format in Form von QGIS-Projektdateien oder QGIS-Layerdateien abzuspeichern. Trotzdem gibt es Hürden, die jeder Ansatz nehmen muss, seien es die geschützten Esri-Fonts, um Icons dazustellen, verschiedene Renderer oder das Labeling. Abschließend wird ein Einblick in den aktuellen Stand der WhereGroup-Toolbox- gegeben und ein exportiertes QGIS-Projekt vorgestellt. about this event: https://pretalx.com/fossgis2020/talk/ZFQNNN/


Was ist Open Source? (fossgis2020)
Mar 11 2020 19 mins  
Der Vortrag stellt die Geschichte der Entwicklung von Open Source vor und geht auf wichtige Grundlagen ein. Ziel des FOSSGIS e.V. und der OSGeo ist die Förderung und Verbreitung freier Geographischer Informationssysteme (GIS) im Sinne Freier Software und Freier Geodaten. Dazu zählen auch Erstinformation und Klarstellung von typischen Fehlinformationen über Open Source und Freie Software, die sich über die Jahre festgesetzt haben. Open Source hat viele Facetten und es ranken sich inzwischen ebenso viele Mythen darum. Was davon richtig ist und was nicht stellen wir in einer kurzen Einführung zusammen. Der Vortrag richtet sich an alle, die mit Open Source bisher noch wenig Kontakt hatten und die Grundlagen verstehen möchten. Open Source ist auf der einen Seite ein Entwicklungsmodell und auf der anderen ein Lizenzmodell. Zusammen bilden sie eine Kultur offener Entwicklungsgemeinschaften, die höchst effektiv arbeiten. Diese Kultur ist um ein Vielfaches effektiver, als proprietäre Modelle es je sein können. Ein einfaches Beispiel: Das Betriebssystem des Herstellers Apple basiert auf dem Open-Source-Unix FreeBSD. Es gibt halt einfach nichts besseres, und es selbst herzustellen wäre unendlich teuer, das hat sogar der hyper-proprietäre Hersteller Apple eingesehen. Der Vortrag stellt die Geschichte der Entwicklung von Open Source vor und geht auf wichtige Grundlagen ein. Ziel des FOSSGIS e.V. und der OSGeo ist die Förderung und Verbreitung freier Geographischer Informationssysteme (GIS) im Sinne Freier Software und Freier Geodaten. Dazu zählen auch Erstinformation und Klarstellung von typischen Fehlinformationen über Open Source und Freie Software, die sich über die Jahre festgesetzt haben. about this event: https://pretalx.com/fossgis2020/talk/EZAY3D/


QGIS im Produktivbetrieb: Erfahrungsbericht zur Einführung von QGIS als professionelles Planungswerkzeug (fossgis2020)
Mar 11 2020 22 mins  
Seit Anfang 2016 habe ich bei einem mittelständischen Unternehmen QGIS als professionelles GIS mit Schwerpunkt Planung im Bereich des Breitbandausbaus eingeführt. In diesem Vortrag würde ich gerne über den Weg berichten vom anfänglichen „fear, uncertainty, and doubt“-Phänomen über erste Teilerfolge hin zu Akzeptanz von QGIS als etabliertes Werkzeug zur Unterstützung der Planer. Beleuchtet werden soll auch die technische Umsetzung zur Bereitstellung von QGIS im professionellen Umfeld. Seit Anfang 2016 habe ich bei einem mittelständischen Unternehmen QGIS als professionelles GIS mit Schwerpunkt Planung im Bereich des Breitbandausbaus eingeführt. In diesem Vortrag würde ich gerne über den Weg berichten vom anfänglichen „fear, uncertainty and doubt“-Phänomen über erste Teilerfolge hin zu Akzeptanz von QGIS als etabliertes Werkzeug zur Unterstützung der Planer. Beleuchtet werden soll auch die technische Umsetzung mit Themen wie: - Netzwerkinstallation von QGIS - Einsatz in virtualisierten Umgebungen - (Teil-)Automatisierung des Rollouts - hausinterne Plugin-Entwicklung und Plugin-Repositories - Einflussmöglichkeiten über PYQGIS_STARTUP und startup.py - Debugging von QGIS - Zusammenspiel mit externen QGIS-Entwicklern und -Support-Dienstleistern Der Vortrag beschäftigt sich explizit NICHT mit speziellen Plugins/Werkzeugen zur FTTX-Planung. about this event: https://pretalx.com/fossgis2020/talk/7BCWHD/



Umgang mit vorhandenen und fehlenden Relevanzinformationen in OpenStreetMap-Kartenstilen (fossgis2020)
Mar 11 2020 26 mins  
Bei bestimmten Featureklassen ist auch in der automatisierten Kartographie die Trennung von wichtigen und weniger wichtigen Features von Bedeutung. OpenStreetMap-Daten enthalten Information über die Relevanz eines Objekts nur in bestimmten Fällen. Der Vortrag stellt vor, wie verschiedene OSM-Open-Source-Kartenstile vorhandenen Relevanzinformationen nutzen. Anschließend wird präsentiert, wie der OpenRailwayMap-Infrastrukturstil Routenrelationen zur Bewertung von Haltestellen verwendet. Bei bestimmten Featureklassen ist auch in der automatisierten Kartographie die Trennung von wichtigen und weniger wichtigen Features von Bedeutung, gerade dann, wenn in kleineren Maßstäben der Platz knapp wird oder die Karte nicht überfrachtet werden soll. Das gilt auch für Kartenstile, mit denen aus OpenStreetMap-Daten Karten gerendert werden. Dabei macht die Art und Weise, wie OpenStreetMap-Daten erfasst werden, es dem Kartographen manchmal nicht gerade leicht, nur die wichtigen Features einer Featureklasse darzustellen. Für manche Features existieren in OpenStreetMap Tag, die die Bedeutung entweder direkt angeben oder mithilfe derer die Bedeutung recht einfach ermittelt werden kann. Bei manchen ist die Auswertung der Relevanzinformationen einfach, bei manchen ist sie anspruchsvoll. Straßen und Siedlungen sind ein Beispiel für ersteres, wobei es selbst bei Siedlungen noch mehrer Möglichkeiten gibt, die Relevanz zu bestimmen. Bei Gipfeln ist die Bestimmung der Dominanz etwas aufwendiger. Es gibt aber auch Objekte in OSM, bei denen keine Informationen direkt erfasst werden, die sich zur Ableitung einer Rangfolge eignen. Meist liegt es daran, dass solche Informationen nicht dem Überprüfbarkeitskriterium bei OSM genügen. In diese Kategorie fallen unter anderen Bahnhöfe und Flughäfen. Im ersten Teil des Vortrags wird vorstellt, wie verschiedene Open-Source-Kartenstile für OSM-Daten vorhandenen Relevanzinformationen für Straßen, Siedlungen und Gipfel nutzen bzw. wie sie mit dem Fehlen oder der Nichtbenutzbarkeit dieser Informationen bei Bahnhöfe, Flughäfen und Flüssen umgehen. Auch die Folgen dieser Entscheidungen auf die Aktualisierbarkeit der Daten wird aufgezeigt. Im zweiten Teil des Vortrags wird am Beispiel des OpenRailwayMap-Infrastrukturstils, der kürzlich auf CartoCSS portiert worden ist, gezeigt, wie für bei Haltestellen des öffenentlichen Personenverkehrs mit in OSM erfassten Routenrelationen bewertet werden. about this event: https://pretalx.com/fossgis2020/talk/S8HCFT/


Ein einheitlicher Frontend-Ansatz, um mehrere Routing-Lösungen im WebGIS zu nutzen (fossgis2020)
Mar 11 2020 22 mins  
Im Vortrag werden die weiterverbreiten Routing-Lösungen (OSRM, GraphHopper, PgRouting, ... ) genutzt, um diese Lösungen über ein einheitliches User-Interface einzubinden und Routing-Anfragen zu stellen und visuell in der Webkarte darzustellen. Hierbei werden auf die unterschiedlichen Routing-Anforderungen eingegangen, die zusammenfassend die allgemeinen Anforderungen an das User-Interface stellen. Dieser Lösungsansatz wird am Bespiel vom OpenSource-WebGIS Mapbender durchgeführt. In der Vergangenheit sind mehrere Routing-Lösungen unter der Open-Source-Lizenz entstanden, die auch in der OpenSource-Community weit verbreitet und im Einsatz sind. Ich möchte ein Lösungsansatz darstellen, wo über ein einheitliches Web-Frontend verschiedene Routing-Lösungen angesprochen und benutzt werden können. Der Lösungsansatz wird am Beispiel von Mapbender durchgeführt und soll auch Nutzer ansprechen, die eine Routing-Lösung in ihren WebGis benutzen möchten, aber sich nicht mit der Installation und Programmierung von Routing-Lösungen herumschlagen möchten. Im Vortrag werden die Anforderungen an das User-Interface erläutert und welche Unterschiede es zwischen den Routing-Lösungen gibt, die betrachtet und später in die Lösung einfließen. Außerdem soll es den User ermöglicht werden, mit ein paar Klicks eine Routinglösung zu erstellen, Routing- und Visualisierungs-Einstellungen vorzunehmen und zu speichern, damit eine Routing-Anfrage an die Routinglösung gesendet werden und im WebGIS dargestellt werden kann. about this event: https://pretalx.com/fossgis2020/talk/YBRH7D/


Lizmap Web Client und QGIS (fossgis2020)
Mar 11 2020 25 mins  
Der Lizmap Web Client der franz. Firma 3Liz ist in Deutschland wenig bekannt. Dabei bietet er den entscheidenden Vorteil, dass die gesamte Konfiguration in einem QGIS-Plugin vorgenommen wird. Zur Veröffentlichung wird nur das QGIS-Projektfile und eine autom. erstellte Konfigurationsdatei auf den Server übertragen. In dem Vortrag wird der Lizmap Client vorgestellt, die wesentliche Konfiguration eines Projektes gezeigt und beispielhaft ein QGIS-Projekt als WebGIS-Projekt veröffentlicht. Der Lizmap Web Client der französischen Firma 3Liz ist in Deutschland leider kaum bekannt. Dabei bietet er den entscheidenden Vorteil, dass die gesamte Konfiguration im QGIS-Plugin vorgenommen wird. Zur Veröffentlichung wird nur das QGIS-Projektfile und eine autom. erstellte Konfigurationsdatei auf den Server übertragen. Die Web-Anwendung stellt das QGIS-Projekt (inkl. Kartensymbole und Beschriftung) aufgrund der gemeinsame Rendering Engine von QGIS-Desktop und QGIS-Server 1:1 im Internet dar. Ferner können u.a. die Druckzusammenstellung incl. dem Atlasdruck und die Attributtabelle in der Web-Anwendung verwendet werden. Suchfunktionen können über Datenbankinhalte erstellt werden. Die Benutzer-/Gruppen- und Projektverwaltung erfolgt komfortabel über das Backend des Clients im Web. Der Web-Client steht aktuell in der Version 3.3.4 für den QGIS-Server 3.4 auf Github zur Verfügung (Open-Source: Mozilla Public Licence) und unterstützt die OGC-Standards WMS, WFS-T, WMTS und WPS. In dem Vortrag wird der Lizmap Client vorgestellt, die wesentliche Konfiguration eines Projektes gezeigt und beispielhaft ein QGIS-Projekt als Web-GIS-Projekt veröffentlicht. about this event: https://pretalx.com/fossgis2020/talk/KYTHBD/








































Die dreckige Empirie (hackumenta19)
Oct 03 2019 57 mins  
Kann man empirischen Studien trauen oder nicht? Wie kann ich gute Studien von schlechten unterscheiden? Und was mache ich, wenn es zu einem Thema Studien mit gegensätzlichen Befunden gibt? Der Vortrag soll helfen, Antworten auf diese Fragen zu finden und empirische Studien besser zu verstehen. Empirischen Studien begegnet man nicht nur in Vorlesungen und Laboren, auch in den Nachrichten und in Diskussionen werden sie zitiert und oft als unumstößliche Wahrheit dargestellt. Andererseits gibt es ein großes Misstrauen gegenüber diesen Studien. Den Satz „Traue keiner Statistik die du nicht selbst gefälscht hast“ hat wohl jeder schon gehört und beim Congress im letzten Jahr hieß es mit Verweis auf psychologische und sozialwissenschaftliche Methoden „Science is broken“. Aber entspricht das wirklich der Wahrheit? Der Vortrag beschäftigt sich mit der Frage, was die Denkweise hinter empirischen Studien ist und wie man sie besser verstehen kann. Dabei sollen sowohl Grundlagen wie Wahrscheinlichkeiten, verschiedene statistische Testverfahren und Metaanlysen als auch Probleme wie p-Hacking und die Replikationskrise angesprochen werden. Ziel des Vortrags ist es, den Zuhörer*innen einen Eindruck davon zu vermitteln, was empirische Studien aussagen können und was nicht. Dabei liegt besonderes Augenmerk auf der Frage, ob und welchen empirischen Studien man trauen kann. Man benötigt keine Vorkenntnisse zum verfolgen des Vortrages. Als Beispiele werden aktuelle und klassische Studien aus der Psychologie benutzt. about this event: http://fahrplan.2019.hackumenta.de/hackumenta/talk/M8X9PD/




















Wie fair ist mein Gerät? (metanook19)
Nov 09 2019 53 mins  
Wie weh tut ein Bit? Mit dieser Frage beschäftigen wir uns im Verein FairLötet seit unserer Gründung. Immerhin sind Menschenrechtsverletzungen in Lieferketten inzwischen auch ein Thema, welches in der Wirtschaft und Politik diskutiert wird. Das Problem: Aufgrund komplexer Lieferketten und dürftiger Datenbestände ist es für Hersteller\*innen von Elektronikgeräten schwierig, menschliche Schäden während der vielen Arbeitsschritte auszuschließen, aus denen letztendlich ihre Produkte hervorgehen. Dabei ist es gar nicht so, dass sich nichts verbessern ließe, wie Projekte wie NagerIT oder Fairphone zeigen. Wir möchten alle, die die Sozialbilanz ihrer Produkte verbessern möchten, dabei unterstützen, den ersten Schritt zu gehen. Deshalb entwickeln wir derzeit eine Software, mit welcher eine erste Risikoabschätzung erstellt werden kann. Diese zeigt, aufgrund welcher Bauteile und der darin enthaltenen Stoffe in welchen Regionen der Welt die größten Risiken entstehen, so dass erkennbar wird, wo ein genaueres Hinschauen besonders wichtig ist. In diesem Talk möchte ich unseren Ansatz vorstellen und einen allerersten Einblick in unser Tool geben. Ihr erfahrt, wie wir Risiken berechnen und welche Datenquellen anzapfen. Damit richte ich mich ausdrücklich auch an Personen, die Nachhaltigkeit zwar wichtig finden, aber wenig Vorwissen in diesem Bereich haben. about this event: https://nook-luebeck.de/talks/wie-fair-ist-mein-geraet/

MIRANA – Ein mobiler Roboterassistent (metanook19)
Nov 09 2019 52 mins  
MIRANA – der mobile intelligente Roboteragent für Navigation und Assistenz Roboter und autonome intelligente Systeme haben einen immer größer werdenden Einfluss auf verschiedenste Lebensbereiche. Zum Beispiel finden sie Einsatz in der Industrie, in der Logistik, der Medizin, oder auch zunehmend im privaten Bereich. In diesem Vortrag stellen wir MIRANA (Mobile Intelligent Robotic Agent for Navigation and Assistance) vor. Ein selbstfahrender Sprachassistent, der als Unterstützung für das vorhandene Fachpersonal in Kliniken, in Alten- und Pflegeheimen aber auch im Einzelhandel als Navigationshilfe eingesetzt werden kann. MIRANA basiert dabei auf drei Hauptkomponenten: dem Robot Operating System (ROS), einem Deep-Learning-Modell (Tensorflow) zur “Hotword”-Detektion und dem Watson Assistant. ROS übernimmt dabei die Koordination und die Steuerung der Komponenten, die für die Navigation und die Fahrplanung benötigt werden. Die “Hotword”-Detektion sorgt dafür, dass der Roboter offline, d.h. ohne Verbindung zum Internet, erkennt, wann er angesprochen wird. Darauf folgend wird eine Verbindung zum Watson-Assistant hergestellt. Dieser ist ein Cloud-basiertes Assistenzsystem, welches die Anfragen der Kunden/Patienten über gesprochene Sprache erfasst, diese intelligent verarbeitet und eine entsprechende Antwortreaktion ausgibt. In diesem Talk bekommen Sie einen Überblick über die relevanten Themen, die zur Entwicklung des vorgestellten Roboterassistenten nötig sind. about this event: https://nook-luebeck.de/talks/mirana-ein-mobiler-roboterassistent/









Arbeiten ohne Chefs (metanook19)
Nov 09 2019 59 mins  
Die meisten Unternehmen arbeiten auch heute, im 21. Jahrhundert, immer noch nach einer Managementlehre, die zu Beginn des Industriezeitalters von dem US-amerikanischen Maschinenbau-Ingenieur Frederick Winslow Taylor erfunden wurde. Der sogenannte "Taylorismus" führte zu streng hierarchischen Organisationsstrukturen, Command-and-Control, monotone Arbeitsabläufe die in Prozessen beschrieben sind, und Separation der Mitarbeiter in die ausführenden "Malocher" (Arbeiter) und das "denkende und planende" Management. Dieser Ansatz war zur Zeit der industriellen Massenproduktion, z.B. in der Automobilindustrie, und wenig dynamischer Märkte durchaus auch über viele Jahrzehnte sehr erfolgreich. Mit der zunehmenden Globalisierung und dem technologischen Fortschritt ab ca. der 1980er Jahre, und der damit einhergehenden Transformation vom Industriezeitalter in das Wissens- und Dienstleistungszeitalter, versagte dieser Ansatz zunehmend. Die Märkte wurden dynamischer, plötzlich tauchten viele Wettbewerber auf die das eigene Geschäftsmodell in Frage stellten und die neuen komplexen Herausforderungen ließen sich nicht mehr mit Kochrezepten in Form von Prozessen adressieren. Neue Organisationsstrukturen und andere Formen der Zusammenarbeit brauchte das Land und die New-Work-Bewegung entstand. Anhand des eigenen Unternehmens oose Innovative Informatik eG gibt Stephan einen Einblick in eine Organisation, die vollkommen ohne klassisches Management ("Chefs") auskommt und in der die Selbstorganisation eine zentrale Rolle spielt. Kann ein Unternehmen funktionieren, in der es niemanden gibt, der sagt, wo es langgehen soll? Kann dort jeder machen, was er will? Kann eine solche Organisation überhaupt wirtschaftlich erfolgreich sein? Auf diese, und viele weitere Fragen, gibt Stephan in diesem Vortrag eine Antwort. about this event: https://nook-luebeck.de/talks/arbeiten-ohne-chefs/




Urbane Archäologie in der Mongolei (metanook19)
Nov 08 2019 91 mins  
In den heute abgelegenen Steppen der Mongolei befinden sich teilweise ausgedehnte Ruinenfelder mittelalterlicher Städte. Diese waren zu Ihrer Zeit Zentren global vernetzter Großreiche, wie zum Beispiel dem Reich der Uiguren im 8. Jahrhundert und dem Weltreich der Mongolen im 13./14. Jahrhundert. Diese mittelalterlichen Nomadenreiche prägten die Geschichte Eurasiens und der Welt entscheidend mit. Sie nahmen aktiv am Handel der Seidenstraßen teil. Durch Krieg, Diplomatie, Wissenschaft und Religion kamen Sie in Kontakt mit den verschiedensten Kulturen zwischen Osteuropa und Korea. Sie wurden so Vermittler von Wissen und Technologie zwischen Ost und West. Das riesige Mongolenreiche eröffnete den Europäern erstmals direkte Reisen ins innerste Asiens, wovon berühmte Reisende wie Wilhelm von Rubruck oder auch Marco Polo in Ihren Berichten Zeugnis ablegten. Eine Bemerkenswerte Eigenschaft dieser Reiche war es, dass sie, trotz der nomadischen Lebensweise ihrer Herrscher und Untertanen, bemerkenswerte Städte erschufen. Diese dienten als Zentren für die Religion, dem Empfang von Gesandtschaften, dem Handel und Handwerk und der Repräsentation der Macht des jeweiligen Herrschers. Im Tal des Orchon-Flusses in der heutigen Mongolei befinden sich die Ruinen zweier solcher Stadtanlagen: Karabalgasun, von 745 bis 840 Hauptstadt des Reiches der Uiguren, und die Stadt Karakorum, von 1220 bis 1260 Hauptstadt des Mongolenreiches. Heute sind beide Stadtanlagen Ruinen, deren Reste sich noch immer sichtbar über die weite Steppe erheben. Seit dem Jahr 2000 kooperieren die Mongolische Akademie der Wissenschaften, die Mongolische Staatsuniversität und das Deutsche Archäologische Institut bei der Erforschung dieser Stätten. Der Vortrag gibt eine kleine Einführung in Landeskunde und Geschichte der Mongolei sowie einen Einblick in die Ergebnisse der archäologischen Erforschung der beiden Stadtruinen und ihrer Umgebung. about this event: https://nook-luebeck.de/talks/urbane-archaeologie-in-der-mongolei/




Einführung in SAT-Solver (metanook19)
Nov 09 2019 78 mins  
Wer eine Definition von SAT-Solver nachschlägt, erfährt, dass es sich um ein „Entscheidungsverfahren für das Erfüllbarkeitsproblem der Aussagenlogik“ handelt. Das klingt mehr nach Theorie als nach praktischem Einsatz. Tatsächlich versteckt sich hinter dem Begriff jedoch ein vielseitig einsetzbares Werkzeug. Viele Probleme lassen sich leicht lösen, wenn man einfach alle Möglichkeiten durchprobieren könnte. Beispielsweise bei der Optimierung von Schichtplänen, Logistikrouten oder der Nutzung von Rechenkapazität, Lagerplatz oder anderen Ressourcen. Auch das Finden von Fehlern in Soft- und Hardware wäre leichter, wenn einfach alle Eingaben getestet werden könnten. Alle Möglichkeiten durchzugehen braucht jedoch meistens viel zu lange. Oft kann hier ein SAT-Solver als Suchmaschine für Lösungen genutzt werden. Die Eingabe für den SAT-Solver ist eine Problembeschreibung und die Ausgabe ist die gesuchte Lösung oder eine Garantie, dass es keine solche Lösung gibt. Ausgehend von der Problembeschreibung, ist ein SAT-Solver selbständig in der Lage, Regeln zu finden, mit denen sich viele Möglichkeiten direkt ausschließen lassen um so schneller eine Lösung zu finden. Damit ein SAT-Solver eingesetzt werden kann, muss jedoch die Problembeschreibung in eine Form gebracht werden, die der SAT-Solver versteht: die Aussagenlogik. In diesem Vortrag geht es daher um Techniken die dabei helfen Probleme in Aussagenlogik zu formulieren. Das ganze werde ich auch an einem Beispiel demonstrieren. [Der Quellcode zum praktischen Beispiel liegt bei GitHub](https://github.com/jix/sat-intro-nook). Anschließend erkläre ich in dem nachfolgenden Vortrag wie SAT-Solver funktionieren. about this event: https://nook-luebeck.de/talks/einfuehrung-in-sat-solver-1/















Presentation of the pilot-project and website 'Preservingtirana.city', the common public platform, connecting Participatory Architecture to Open Source culture. (oscal19)
May 19 2019 24 mins  
The initial idea of our project started after a dedicated research project developed on the urban texture of the city of Tirana where many issues of the urban development were identified. This lead to the grassroots development of Preservingtirana.city as a necessary, interactive platform for the online documentation of some important assets of Tirana's Identity as a city, the 'neglected buildings'with a specific historical, cultural and architectural value left in the deterioration of the course of nature. An innovative added value of the project is the fact that the website has been created in all of its phases through the notions of an Open source platform, all the data and content of the website can be found on GitHub so that it can be a public common project offering the opportunity to the community and people interested to contribute to its further development, in different ways (detaily explained how, on the website). Apart from using GitHub as an open source platform for the community engagement, we use also Wikimedia Commons for all the visual contents (images) of the website as a further step that enriches the project and offers another way of contributing at the same time to two different platforms. One of the ways of contributing can be done also through Cryptocurrency, since a bitcoin-wallet was provided specifically for the website Preservingtirana.city. The project aims to raise the awareness of people to participate in preserving their common public assets of the city they live in, aims to give to people interested, the basic notions of using GitHub or Wikimedia commons and it also represents a pilot-project that starts with Tirana but that can be implemented for several other cities that suffer from the same problematics, once the structure already exists. A first presentation of the website happened on the beginning of January, at Open Labs Hackerpace Ti rana, a very supportive community for the project. To see all the above mentioned issues please check the website: www.preservingtirana.city The initial idea of our project started after a dedicated research project developed on the urban texture of the city of Tirana where many issues of the urban development were identified. This lead to the grassroots development of Preservingtirana.city as a necessary, interactive platform for the online documentation of some important assets of Tirana's Identity as a city, the 'neglected buildings' with a specific historical, cultural and architectural value left in the deterioration of the course of nature. An innovative added value of the project is the fact that the website has been created in all of its phases through the notions of an Open source platform, all the data and content of the website can be found on GitHub so that it can be a public common project offering the opportunity to the community and people interested to contribute to its further development, in different ways (detaily explained how, on the website). Apart from using GitHub as an open source platform for the community engagement, we use also Wikimedia Commons for all the visual contents (images) of the website as a further step that enriches the project and offers another way of contributing at the same time to two different platforms. One of the ways of contributing can be done also through Cryptocurrency, since a bitcoin-wallet was provided specifically for the website Preservingtirana.city. The project aims to raise the awareness of people to participate in preserving their common public assets of the city they live in, aims to give to people interested, the basic notions of using GitHub or Wikimedia commons and it also represents a pilot-project that starts with Tirana but that can be implemented for several other cities that suffer from the same problematics, once the structure already exists. A first presentation of the website happened on the beginning of January, at Open Labs Hackerpace Tirana, a very supportive community for the project. To see all the above mentioned issues please check the website: www.preservingtirana.city about this event: https://c3voc.de










DG107: Klimakrise, Migration und Gerechtigkeit (datengarten)
Feb 11 2020 50 mins  
Die Klimakrise ist wesentlicher Bestandteil der globalen Gerechtigkeitskrise, sie verschärft Armut, soziale Ungerechtigkeit und manifestiert das Machtgefüge der seit dem Kolonialismus bestehenden weltweiten Ungleichheiten. Die Ergebnisse der letzten UN-Klimakonferenz haben erneut gezeigt, dass die Regierungsvertreter*innen weit davon entfernt sind, die dringend notwendigen Antworten zu liefern. Im vergangenen Jahr streikten in Deutschland wöchtenlich Schüler und Schülerinnen für ihr Recht auf eine Zukunft und um die Politik zum Handeln für einen besseren Klimaschutz zu bringen. Mit etwa 1,4 Millionen Teilnehmenden waren die Demonstrationen zum globalen Klimastreik in Deutschland die weltweit best besuchtesten. Was für die Menschen in den Industrieländern als Bedrohungsszenario der Zukunft inzwischen sehr nah gerückt ist, ist seit für viele Menschen auf der Welt schon längst Realität. Bereits heute gibt es Regionen, in denen die Klimakrise durch öfter und stärker auftretende Naturkatastrophen zuschlägt, an anderen Orten haben beispielsweise länger als üblich anhaltende Dürren über mehrere Jahre hinweg die lokale Landwirtschaft zerstört. Diese klimabedingten Schäden führen oftmals dazu, dass Menschen gezwungen sind, ihre Heimat zu verlassen. Nach Angaben des Internal Displacement Monitoring Centre sind seit 2008 jährlich durchschnittlich 26,4 Millionen Menschen aufgrund von Umwelt- und Naturkatastrophen auf der Flucht, die meisten von ihnen im globalen Süden. Schätzungen gehen davon aus, dass im Jahr 2050 bis zu eine Milliarde Menschen bedingt durch den Klimawandel auf der Flucht sein könnten - die meisten innerhalb ihrer Länder, die anderen über Grenzen hinweg. Auch wenn seit mehreren Jahren zunehmend über Klimaflucht gesprochen wird, richtet sich zu wenig Augenmerk auf die Migrant*innen und den Schutz ihrer Rechte selbst. Es mangelt an internationalen Mechanismen, welche Menschenrechte und Unterstützung der Betroffenen absichern. Im Rahmen dieser Veranstaltung werden wir uns mit der aktuellen Situation bezüglich der Rechte von Klimamigrant*innen beschäftigen, wir werden genauer beleuchten, welche Forderungen von Betroffenen im Raum stehen, wie wir als Akteur*innen im globalen Norden solidarisch sein können und welche Ansätze, Forderungen oder Ideen für die Arbeit hier in Deutschland relevant sein könnten. about this event: https://c3voc.de



Shoot all the hackers (oscal19)
May 18 2019 8 mins  
"Shoot ALL the Hackers!": one of the long-running photography projects by Dennis van Zuijlekom (Hackerspace Hack42, Arnhem). Its focus is portrait photography of persons who relate themselves to hacker/maker culture. Dennis started this project in 2015 and it'll never be truly finished, as there will always be new hackers to photograph, as well as old friends having new faces. Dennis takes great pride in photographing people looking at their very best and the results speak for themselves. He'll invite you to have your headshot taken during this event (and/or sometime afterwards). You'll be using his photo in your personal bio, guaranteed. The project and the photos are licensed Creative Commons, CC-BY-SA, as Open Source and free/libre content is important to Dennis. "Shoot ALL the Hackers!": one of the long-running photography projects by Dennis van Zuijlekom (Hackerspace Hack42, Arnhem). Its focus is portrait photography of persons who relate themselves to hacker/maker culture. Dennis started this project in 2015 and it'll never be truly finished, as there will always be new hackers to photograph, as well as old friends having new faces. Dennis takes great pride in photographing people looking at their very best and the results speak for themselves. He'll invite you to have your headshot taken during this event (and/or sometime afterwards). You'll be using his photo in your personal bio, guaranteed. The project and the photos are licensed Creative Commons, CC-BY-SA, as Open Source and free/libre content is important to Dennis. about this event: https://c3voc.de



Open Source Business Models (oscal19)
May 18 2019 32 mins  
Giving your software away for free is a terrible way to make money. But entrepreneurs should still consider open sourcing their software--many successful companies have done so! But how? The goal of the podcast "Open Source Underdogs" was to interview the most prominent founders in the industry to shed light on their stories. Although each business is different, some common themes emerge. In this talk, Mike will talk about what he's learned after the last 22 interviews. The goal is to both inspire and challenge entreneurs to consider open source software developement's strengths and weaknesses as part of a business model. Information on this topic will be gathered from descriptive data of the social networks,from media and from direct answers on how much time people (students, random workers) spend. Giving your software away for free is a terrible way to make money. But entrepreneurs should still consider open sourcing their software--many successful companies have done so! But how? The goal of the podcast "Open Source Underdogs" was to interview the most prominent founders in the industry to shed light on their stories. Although each business is different, some common themes emerge. In this talk, Mike will talk about what he's learned after the last 22 interviews. The goal is to both inspire and challenge entreneurs to consider open source software developement's strengths and weaknesses as part of a business model. Information on this topic will be gathered from descriptive data of the social networks,from media and from direct answers on how much time people (students, random workers) spend. about this event: https://c3voc.de












































DG105: IT-Security Weaknesses of Emergency Alert Apps (datengarten)
Dec 10 2019 51 mins  
Emergency Apps (like NINA/DE, FEMA/US and others) are a novel approach to enhance conventioal emergency alert channels with mobile devices, which nowadays are owned by the majority of the population to connect them to omnipresent data sources of the Internet. Due to typical characteristics implied by the design of mobile operating systems and applications, emergency apps on the hand have short version life cycles, on the other hand should be resilient to human and technical failure. Therefore we present the features of mobile apps, describe typical requirements towards these. To provide a practical result we scanned several apps for typical vulnerability patterns (and placed these in the CVE/CWE categories). In the end we summarize our research results towards a wish list to promote standard infrastructure and quality criteria for the development and deployment of such apps. Emergency Apps (like NINA/DE, FEMA/US and others) are a novel approach to enhance conventioal emergency alert channels with mobile devices, which nowadays are owned by the majority of the population to connect them to omnipresent data sources of the Internet. Due to typical characteristics implied by the design of mobile operating systems and applications, emergency apps on the hand have short version life cycles, on the other hand should be resilient to human and technical failure. Therefore we present the features of mobile apps, describe typical requirements towards these. To provide a practical result we scanned several apps for typical vulnerability patterns (and placed these in the CVE/CWE categories). In the end we summarize our research results towards a wish list to promote standard infrastructure and quality criteria for the development and deployment of such apps. about this event: https://c3voc.de







DG106: Der IOCCC (datengarten)
Jan 14 2020 66 mins  
Einer der ältesten im Netz ausgetragenen Wettbewerbe ist der “International Obfuscated C Code Contest”, kurz IOCCC. Seit 1984 bietet dieser eine sichere Spielwiese für C-Programme, die auf den ersten Blick gegen alles verstoßen, was gute Programmierung ausmacht. Auf den zweiten Blick jedoch weisen viele dieser Programme Qualitäten auf, die man in anderen Software-Projekten auch gerne vorfinden würde. Der Vortragende ist ein langjähriger Fan dieses Wettbewerbs. Für ihn ging letztes Jahr ein Traum in Erfüllung: Er gehörte zu den Gewinnern, und das gleich mit zwei Programmen. Im Vortrag wird der IOCCC vorgestellt und vor laufender Kamera eines der beiden Gewinner-Programme seziert. Ziel ist es, mehr galaktische Lebewesen für den IOCCC zu begeistern. Einer der ältesten im Netz ausgetragenen Wettbewerbe ist der “International Obfuscated C Code Contest”, kurz IOCCC. Seit 1984 bietet dieser eine sichere Spielwiese für C-Programme, die auf den ersten Blick gegen alles verstoßen, was gute Programmierung ausmacht. Auf den zweiten Blick jedoch weisen viele dieser Programme Qualitäten auf, die man in anderen Software-Projekten auch gerne vorfinden würde. Der Vortragende ist ein langjähriger Fan dieses Wettbewerbs. Für ihn ging letztes Jahr ein Traum in Erfüllung: Er gehörte zu den Gewinnern, und das gleich mit zwei Programmen. Im Vortrag wird der IOCCC vorgestellt und vor laufender Kamera eines der beiden Gewinner-Programme seziert. Ziel ist es, mehr galaktische Lebewesen für den IOCCC zu begeistern. about this event: https://c3voc.de




Interactively Discovering Implicational Knowledge in Wikidata (36c3)
Dec 28 2019 31 mins  
The ever-growing Wikidata contains a vast amount of factual knowledge. More complex knowledge, however, lies hidden beneath the surface: it can only be discovered by combining the factual statements of multiple items. Some of this knowledge may not even be stated explicitly, but rather hold simply by virtue of having no counterexamples present on Wikidata. Such implicit knowledge is not readily discoverable by humans, as the sheer size of Wikidata makes it impossible to verify the absence of counterexamples. We set out to identify a form of implicit knowledge that is succinctly representable, yet still comprehensible to humans: implications between properties of some set of items. Using techniques from Formal Concept Analysis, we show how to compute such implications, which can then be used to enhance the quality of Wikidata itself: absence of an expected rule points to counterexamples in the data set; unexpected rules indicate incomplete data. We propose an interactive exploration process that guides editors to identify false counterexamples and provide missing data. This procedure forms the basis of [The Exploration Game](https://tools.wmflabs.org/teg/), a game in which players can explore the implicational knowledge of set of Wikidata items of their choosing. We hope that the discovered knowledge may be useful not only for the insights gained, but also as a basis from which to create entity schemata. The talk will introduce the notions of Implicational Knowledge, describe how Formal Context Analysis may be employed to extract implications, and showcase the interactive exploration process. about this event: https://cfp.verschwoerhaus.de/36c3/talk/HMMPQQ/










Reading politics of the supposedly neutral (36c3)
Dec 27 2019 21 mins  
Algorithms bear the image of their makers, and toil like their servants. Technology of any sort cannot be neutral, as it is embedded in a social matrix of why it was created and what work it performs. An algorithm, its context, and what it lacks should be understood as a political statement carrying great consequences, and as a society we should respond to each as needed, engaging the purveyors of these algorithms on a political level as well as legal and economic. Three algorithmic systems are revealed to embody various class interests. First, a population ecology modeled simply by a pair of predator-prey equations leads one to conclude that socialist revolution and compulsory leisure are the only routes to avoiding civilizational collapse. Second, a formula for labor supply reduces us to lazy drones who work as little as possible to support our choice of lifestyle. Finally, advertising on Wikipedia could yield a multi-billion-dollar fortune—shall we put it up for sale or double-down on radical equality among all people? (1) The [Human and Nature Dynamics](https://www.sciencedirect.com/science/article/pii/S0921800914000615) (HANDY) model is the first to pair environmental resource consumption with class conflict, each as a predator-prey cycle. In one cycle we overrun and out-eat the other species on Earth, who grow back slowly, and in the other cycle elites out-compete commoners in their consumption, to the point of even causing commoners to die of hunger. One can say that socialist revolution is embedded in a statement like this. Indeed, something must be done about the growing power of over-consuming elites before they doom us all. I will give a tour using this [interactive explorer](https://adamwight.github.io/handy-explorer/). (2) A second example is a run-of-the-mill, capitalist formula for labor supply, to explain our collective decision to go to work in the morning. Loosely, it is to`optimize(Consumption, hours worked)` for the constraint `Consumption ≤ wage x hours + entitlement`. In other words, this formula assumes we are lazy, greedy, individual agents, each motivated only by obtaining the greatest comfort for the least labor. The worker who internalizes this formula will fight for fewer hours of work and higher wages for themself, will find shortcuts to spend less money to increase purchasing power, and in this idealized world can be expected to vote in favor of social democratic minimum incomes. A company following this formula, on the other hand, will fight against all of these worker gains, and will act to depress government welfare or minimum incomes until workers are on the edge of starvation in order to squeeze longer hours out of them. What's missing from this formula is, all the ways out of the trap. Mutual aid and connections among ourselves to protect the most vulnerable individuals, pooling resources, and any other motivation to work besides mortal fear and hedonism.—One can easily imagine a radically different paradigm for work, in which labor is dignified and fulfilling. To understand this world in formulas, labor supply is measured in education levels, self-direction, and other positive feedback loops which raise productivity. (3) Wikipedia and its sister projects have never worn the shackles of paid advertising, although they sit on a potential fountain of revenue in the tens of billions of dollars per year—not to mention the value of the influence over public opinion that such a propaganda machine might achieve. `Revenue = Ads per visit x Visits` Analyzed venally, Wikipedia becomes an appealing portfolio acquisition, which would jeopardize the entire free-open movement. From a different perspective, that of an organizer in an editor’s association, slicing pageview and (non)-advertising data might allow for more effective resource-sharing among the many chapter organizations. In a third analysis using a flow of labor, power, and funds, we can see the Wikimedia Foundation as engaged in illegitimate expropriation, turning editors into sharecroppers and suppressing decentralized growth. These twists all come about through variations on an equation. Which shall we choose? about this event: https://cfp.verschwoerhaus.de/36c3/talk/TNSGB8/


KDE Itinerary - A privacy by design travel assistant (36c3)
Dec 27 2019 33 mins  
Getting your itinerary presented in a unified, well structured and always up to date fashion rather than as advertisement overloaded HTML emails or via countless vendor apps has become a standard feature of digital assistants such as the Google platform. While very useful and convenient, it comes at a heavy privacy cost. Besides sensitive information such as passport or credit card numbers, the correlation of travel data from a large pool of users exposes a lot about people's work, interests and relationships. Just not using such services is one way to escape this, or we build a privacy-respecting alternative ourselves! Standing on the shoulders of KDE, Wikidata, Navitia, OpenStreetMap and a few other FOSS communities we have been exploring what it would take to to build a free and privacy-respecting travel assistant during the past two years, resulting in a number of building blocks and the "KDE Itinerary" application. In this talk we will look at what has been built, and how, and what can be done with this now. In particular we will review the different types of data digital travel assistants rely on, where we can get those from, and at what impact for your privacy. The most obvious data source are your personal booking information. Extracting data from reservation documents is possible from a number of different input formats, such as emails, PDF files or Apple Wallet passes, considering structured annotations and barcodes, but also by using vendor-specific extractors for unstructured data. All of this is done locally on your own devices, without any online access. Reservation data is then augmented from open data sources such as Wikidata and OpenStreetMap to fill in often missing but crucial information such as timezones or geo coordinates of departure and arrival locations. And finally we need realtime traffic data as well, such as provided by Navitia as Open Data for ground-based transport. Should the author fail to show up to this presentation it might be that his Deutsche Bahn ticket rendering code still needs a few bugfixes ;-) about this event: https://cfp.verschwoerhaus.de/36c3/talk/MH3WTA/





What's left for private messaging? (36c3)
Dec 27 2019 60 mins  
It is easier to chat online securely today than it ever has been. Widespread adoption of signal, wire, and the private mode of WhatsApp have led a broader recognition of the importance of end-to-end encryption. There's still plenty of work to be done in finding new designs that balance privacy and usability in online communication. This introduction to secure messaging will lay out the different risks that are present in communications, and talk about the projects and techniques under development to do better. The talk will begin with a threat modeling exercise to be able to concretely talk about the different actors and potential risks that a secure messaging system can attempt to address. From there, we'll dive into end-to-end encryption, OTR and deniability, and then the axolotl construction used by Signal (and now the noise framework). The bulk of the talk will focus on the rest of the problem which is more in-progress, and in particular consider the various metadata risks around communication. We'll survey the problems that can arise around contact discovery, network surveillance, and server compromise. In doing so, we'll look at the forays into communication systems that attempt to address these issues. Pond offered a novel design point for discovery and a global network adversary. Katzenpost adapts mixnets to limit the power of network adversaries and server compromise in a different way. Private Information Retrieval (PIR) trades off high server costs for a scheme that could more realistically work with mobile clients. Others, for instance Secure Scuttlebutt attempt to remove the need for infrastructural servers entirely with gossip and partial views of the network, a whole other set of tradeoffs. about this event: https://fahrplan.events.ccc.de/congress/2019/Fahrplan/events/10565.html









It's the patriarchy, stupid (pw19)
Oct 27 2019 55 mins  
Sigi Maurer hat sich gegen sexistische, erniedrigende Hassnachrichten gewehrt, indem sie einen Screenshot davon inklusive Profil-Namen gepostet hat. Dafür wurde sie verklagt und verurteilt, mittlerweile wurde der Prozess neu aufgerollt. Im Frühjahr 2018 ging Sigi Maurer an einem Craftbeer-Shop in Wien vorbei, wurde dort angepöbelt und erhielt kurze Zeit später extrem erniedrigende, sexualisierte Nachrichten vom Facebook-Account des Bierladenbesitzes. Mangels rechtlicher Alternativen wehrte sie sich indem sie einen Screenshot der Nachrichten inklusive Profil-Namen auf facebook und twitter postete. Die Empörung über die Nachrichten war riesig – auch beim Bierladenbesitzer, er will es nämlich nicht gewesen sein, „irgendjemand“ hätte die Nachrichten geschrieben, sein PC und sein persönliches Facebook-Profil stünde für alle offen. Er verklagte Maurer wegen übler Nachrede und wollte 60.000 Euro Entschädigung. In einem skurrilen Prozess wurde Maurer verurteilt – obwohl der Richter sich sicher war, dass der Kläger lügt (!) kam er zum Schluss, Maurer hätte ihre „journalistische Sorgfaltspflicht“ verletzt – sie hätte vor dem Posten beim Account-Besitz nachfragen müssen, ob dieser die Nachricht denn wirklich verfasst hätte. Dass dieses Urteil absurd war, fand auch das Landesobergericht Wien – mittlerweile wurde das Verfahren neu aufgerollt. Der Fall hat eine große Debatte angestoßen, die Solidarität mit Maurer war riesig – eine Crowdfunding-Kampagne für einen Rechtshilfefonds für Betroffene von Hass im Netz spielte innerhalb von 38 Stunden 100.000 Euro ein – zwei Drittel der Spender_innen waren Männer. Ebenso verhielt es sich mit Nachrichten auf sozialen Medien. Was im ersten Moment als Sieg des feministischen Kampfes gegen den Frauenhass wirkt, ist auf den zweiten Blick bestens kompatibel mit patriarchalen Mustern. In ihrem Talk zeigt Maurer anhand von Beispielen, wie viel patriarchale Vorstellungen auch in solidarischen oder solidarisch verstandenen Nachrichten stecken und warum die Solidaritätserklärung zwar gut ist, aber nicht reicht. about this event: https://cfp.privacyweek.at/pw19/talk/QXHX7Z/

Regulierung von Instant Messengern (pw19)
Oct 24 2019 45 mins  
In letzter Zeit häufen sich Forderungen von Politikern nach einer Regulation des Instant Messengers Marktes. Obwohl das Wort Regulation in der Tech-Community häufig negativ konnotiert ist, ist dem Vorschlag durchaus etwas abzugewinnen. Schaut man sich die Reaktionen der Tech-Community auf [Katarina Barley’s Tweet](https://twitter.com/katarinabarley/status/1125886048117112833) oder der Newscoverage darüber an, sind diese in großer Mehrheit negativ. Der (ehemaligen) Justizministerin wird Inkompetenz vorgeworfen und an der technischen Durchsetzbarkeit gezweifelt. Dabei ist der Vorschlag Instant Messenger zur Interoperabilität¹ zu zwingen im Grunde ein richtiger Ansatz und technisch durchaus machbar. Ein regulierter Instant Messaging Markt würde den Netzwerkeffekt aufbrechen und datenschutzfreundlichen Alternativen zu WhatsApp und Co eine faire Chance geben. Die politische Durchsetzbarkeit erst einmal außen vor gelassen (Andere Regularien wie der GDPR, die auch internationale Konzerne Betreffen wurden auch durchgesetzt) bespricht dieser Vortrag wie eine solche Regulierung technisch und organisatorisch aussehen könnte. Dabei werden die Vor- und Nachteile einer erzwungenen Interoperabilität gegeneinander abgewogen und auch mit bereits existierenden, interoperablen (Open-Source) Lösungen vergleichen. Der Vortragende greift dabei auf seine Erfahrung zurück, die er in 5+ Jahren Arbeit am Herstellerunabhängigen Instant Messaging Protokoll XMPP gewonnen hat. In den Vortrag fließen auch die Erfahrungen mit ein, die der Vortragende durch seine Mitgliedschaft in der XMPP Standards Foundation (XSF) gewonnen hat. Die XSF ist eine Plattform, auf der mehrere Parteien gemeinsam einen Instant Messenger Standard entwickeln. Der Vortrag soll nicht als fertig ausgearbeitete Konzept verstanden werden sondern als Auftakt zu einer Debatte über die Vor- und Nachteile einer solchen Gesetzgebung. Die Folien für diesen Vortragen sind auf Github zu finden: [iNPUTmice/talks](https://github.com/iNPUTmice/talks/blob/master/2019_10_24_-_im_regulation.md). ¹ : Nutzern des Messengers A es erlauben mit Nutzer des Messengers B zu kommunizieren. about this event: https://cfp.privacyweek.at/pw19/talk/LDZMGW/