• Shuffle
    Toggle On
    Toggle Off
  • Alphabetize
    Toggle On
    Toggle Off
  • Front First
    Toggle On
    Toggle Off
  • Both Sides
    Toggle On
    Toggle Off
  • Read
    Toggle On
    Toggle Off
Reading...
Front

Card Range To Study

through

image

Play button

image

Play button

image

Progress

1/24

Click to flip

Use LEFT and RIGHT arrow keys to navigate between flashcards;

Use UP and DOWN arrow keys to flip the card;

H to show hint;

A reads text to speech;

24 Cards in this Set

  • Front
  • Back

Ablauf des Card Sorting

1. Karten beschriften


2. Proband einladen und Methodik erklären


3. Proband Karten gruppieren lassen


4. Proband Gruppen benennen lassen


5. Dominierendes Gruppierungskriterium ermitteln


6. Klassifikationssystem nach dominierendem Kriterium ausrichten


7. Instanzen aus verworfenen Gruppen auf bestehende Gruppen verteilen


8. Spezielle Lösungen für verbleibende Instanzen finden


9. Klassifikationssystem kritisch revidieren

Worauf bei erstellen der Facettenklassifikation achten?

- was sind gemeinsame Eigenschaften


- eindeutig genug


- ausreichend unterscheidbare Foki


- dem mentalen Modell bekannte Eigenschaften wählen

Bewertungskriterien für hierarchische Klassifikationssysteme

- Kongruenz mentales Modell


- Gleichgewicht der Instanzen/Klasse


- Trennschärfe


- sinnvolle Instanzen pro Klasse


- sinnvolle Unterklassen


- wenig Instanzen in Residualkategorie


- konsistente, prägnante Bennenung der Instanzen und Klassen


- Erweiterbarkeit

Welche Typen strukturierter Metadaten gibt es?

- intrinsisch


- administrativ


- beschreibend

Welche Arten von Metadaten gibt es?

- strukturiert: Key-Value-Paare -> haben durch den Key meist eine eindeutige Semantik


- unstrukturiert: Schlagworte, Tags

Wobei helfen Metadaten?

- Verbessern Findability


- Verbessern Orientierungs und Suchmöglichkeiten


- Können den Suchraum erweitern


- fördern freie und flexiblere Suche

Welche kontrollierten Vokabulare gibt es und wobei helfen sie?

- Ontologie, Thesaurus, Taxonomie, Synonymring


- Unterstützen Nutzer durch Abbildung von Systembegriffen auf Begriffe seines mentalen Modells


- thematische Zusammenhänge durch Thesauri


- Siehe Metadaten-Frage vorher

Aspekte eines Metadatenkonzepts

- Welche strukturierten Metadaten gibt es?


- Welche sind sinnvoll?


- Machen unstrukturierte Metadaten Sinn? (Hierzu zählen auch Rezensionen, etc)


- Ist Social Tagging erwünscht und dient der Ergänzung?


- Metadaten durch Redaktion Erstellen, Pflegen oder lieber die Nutzer?


- Wer kontrolliert die Metadaten?

Begriffe im Thesaurus

BT: Broader Term


NT: Narrower Term


PT: Preffered Term


VT: Variant Term


RT: Related Term


U: Use -> Verweis von VT auf PT


UF: Used For -> Verweis von PT auf VT

Was ist Precision?

Anzahl der relevanten gefundenen Dokumente / Anzahl aller gefundenen Dokumente

Was ist Recall?

Anzahl der relevanten Dokumente / Anzahl aller relevanten Dokumente im System

Wodurch kann die Precision verbessert werden?

- Vertikale Suche / Search Zones (Seitenbereich der durch bestimmtes Kriterium vom Rest abgegrenzt ist)




- Content Components (Bestimmte Abschnitte [Section, HTML-Title, keywords, etc] sollen durchsucht werden, andere ignoriere)




- Personalisierte Suche (Kontextinformationen [Ort, IP, persönliche Infos etc] können genutzt werden




- Best Bets (Manueller Eingriff in Suche durch Redaktion. Betreiber spekuliert also auf das was gesucht wird)




- Advanced Search (logische Operatoren, Zones, Sortierung, etc)



Wodurch kann der Recall verbessert werden?

- Kontrollierte Vokabulare (Flexibel durch Synonyme und inhaltliche Verwandtschaft)




- Phonetische Codes (Ähnlichen Klang von Eingabe auf andere potentielle Suchbegriffe abbilden)




- Stammformreduktion (Suche nach Wörtern mit selben Wortenstamm)




- Rechtschreibprüfung (korrigieren falsch geschriebener Eingaben) -> hilft auch Precision




- Sicherheitsnetz durch zb alternative Suchbegriffe oder Kontakt geben um Anwender auf Seite zu halten

Darstellung von Suchbegriffen

- möglichst minimalistisch


- Code Snippet anzeigen


- Sinnvolle Metadaten anzeigen


- Mögliche Weiterverarbeitung bieten

Was gibt es für On-Site SEO Möglichkeiten?

- Konsistente und sprechende URL


- Crawler gerechter Code


- Sitemaps (XML und menschenlesbar)


- Metadaten zur Seite


- kanonische Links


- Alt-Tags für Multimedia


- Schlagwörter im Titel


- Breadcrumbs


- strukturierte Überschriften


- Metadaten zu Inhalten


- Barrierefreiheit


- Interne Links


- Prägnanter zum Inhalt passender Domainname


- Code und CSS Auslagerung aus HTML


- W3C konformer Code


- Pagination (Crawler muss navigieren)


- Responsiveness -> mobile first


- Taxonomien einsetzen

Welche Seitentypen gibt es?

Seitentypen basieren auf ihrem Einsatzzweck:


- Navigationsseite (zB produktübersicht)


- Konsumseite (zB konkrete Produktseite)


- Interaktionsseite (zB Warenkorb oder WebApp)

Welche Navigationselemente gibt es?

- Strukturelle Navigation (global, lokal)


- Assoziative Navigation


- Utility Navigation


- Pagination

Typischer Aufbau in einem Wireframe?

- Wireframe als einfache Visualisierung aber mit sinnvollen Elemente und evt Beschriftung


- Haupt-Content-Bereich nimmt meisten Platz ein -> Center Stage Pattern


- Kopf und Fußzeile inkl. Utility Navigation


- strukturelle Navigation oben und/oder an Seite


- Pagination bei Übersichtsseite


- Assoziative Navigation bei Produktseite

Wie können Daten zur Evaluierung der IA erhoben werden?

- Server Logs: Zugriff, Fehler, etc. Logdateien des Webservers werden ausgewertet




- Page Tagging: Auf den Seiten werden JS Snippets eingebettet die die Informationen sammeln und an den Evaluationsserver senden

Vorteile und Nachteile Serverlogs

Vorteile:


- Daten lokal beim Betreiber


- flexible Auswertung


- (Webcrawler Zugriffe werden gezählt)




Nachteile:


- Aufrufe über Proxy oder Cache nicht erfasst


- Durch IP keine eindeutige Zuordnung von Benutzer zu Besuch (Timeout, Userwechsel am PC, etc)

Vorteile und Nachreile Page Tagging

Vorteile:


- Proxy und Cache Abrufe werden durch JS auch erfasst


- durch Cookies gute Zuordnung von Besuchern zu Aufrufen


- Erhebung zusätzlicher Daten (Geolocation, Browser, etc)




Nachteile:


- JS muss aktiviert sein sonst passiert nichts


- Meist proprietäres Format von Anbieter


- (Webcrawler Zugriff nicht vollständig erfasst)


- Datenschutzrechtliche Bedenken bei "zusätzlichen" Infos

Welche Fragen gilt es bei der Evaluation zu beachten?

- Die richtigen Fragen die der vorher gesetzten Content Strategy entsprechen


- Allgemeine Kennzahlen (Konversionsrate, Aufrufer pro Monat, Verweildauer...)


- Woher kommen die Nutzer (Von welchen Seiten)


- Wer sind die Nutzer (Zielgruppe erwischt?)


- Welche Endgeräte? (Muss ich optimieren?)


- Wie wird navigiert? (Direkt Suche oder Menü?)


- Welche Teile werden wie oft wie benutzt? Gibt es nutzlose Seitenteile?

Milchmädchenrechnung / Gefahren der Auswertung?

- Erhobenen Kennzahlen und Ergebnisse müssen im Kontext betrachtet werden um den Erfolg zu bewerten


-> Spezialwerkzeughersteller mit 15 Besuchern vs. Onlineshop mit 15000 Besuchern

Ablauf des CS Vorgehensmodells

1. Stakeholder ausrichten


2. Ist-Situation der Inhalte


3. Einflussfaktoren analysieren


4. Kernstrategie entwickeln


5. Substanz und Struktur der Inhalte planen


6. Workflow und Governance planen


7. CS-Konzept umsetzen


8. CS-Kultur etablieren