Wenn digitale Bildbestände in jahrelanger Arbeit mit unterschiedlichen Personen aufgebaut wurden, dann bleibt es nicht aus, dass sich auch Dubletten ergeben. Diese redundanten Datensätze sind natürlich jedem/r Datenkurator/in ein Dorn im Auge und er oder sie wird bei jedem Befund versuchen, die entsprechenden Datensätze zu verschmelzen oder zu löschen. Sobald eine gewisse Masse an Abbildungen erreicht wurde, bleibt das Auffinden dieser Dubletten häufig dem Zufall überlassen oder ergibt sich aus Hinweisen von Nutzer*innen. Dank der großen Entwicklungen im Bereich der Bildähnlichkeitssuche kann dem Thema nun aber auch systematischer begegnet werden. So z.B. mit dem similARiTy-Tool, welches auf Grundlage von percepual hashing und BK-tree zwei Konvolute von digitalen Bildern miteinander vergleicht. Dazu wird zunächst je zu vergleichendem Verzeichnis ein json-File erzeugt, die dann miteinander verglichen werden. Voraussetzungen der Nutzung dieses command-line-Werkzeugs sind python und imagemagick.
Archive
- Januar 2021
- November 2020
- März 2020
- Januar 2020
- Februar 2019
- September 2018
- Juli 2018
- April 2018
- Februar 2018
- Dezember 2017
- November 2017
- Juni 2017
- Mai 2017
- April 2017
- März 2017
- Januar 2017
- Oktober 2016
- Juli 2016
- Januar 2016
- Dezember 2014
- September 2014
- November 2013
- Oktober 2013
- Februar 2013
- Oktober 2012
- Mai 2012
- März 2012
- November 2011
- Oktober 2011
- März 2011
- Januar 2011
- Dezember 2010
- Oktober 2010
- September 2009
- August 2009
- März 2009
Tags
API
Archiv
Ausstelllung
Auszeichnung
Backend
CeBIT
CIDOC CRM
ConedaKOR
DARIAH-DE
DFK Paris
Digitale Strategie
Entität
Export
farbe
Feature
Forschung
Frankfurt am Main
frontend
GitHub
Graph
IIIF
Import
Installation
Kunstgeschichte
Lehre
Max Weber Stiftung
Migration
Museen
Nachlass
Ontologie
prometheus
Rechtemanagement
Saas
Start
Studium
Test
Ubuntu
Universität
Vortrag
Werkzeug
Wikidata
Workshop
XML
Zürich
Ähnlichkeitssuche