View
207
Download
6
Category
Preview:
DESCRIPTION
Citation preview
analiza i krytyka piśmiennictwa 2009-2013 (2014 → preprinty)
Audyt strony Kreatywka.pl
„Audyt serwisu internetowego – ocena serwisu internetowego przez niezależne od podmiotu ocenianego i obiektywne osoby
lub firmy. Celem audytu jest weryfikacja serwisu internetowego: czy
realizuje zamierzone przez właściciela cele, w jaki sposób, czy jest funkcjonalny, czy jest użyteczny (ergonomiczny), czy jest
estetyczny, czy jest wykonany zgodnie ze standardami technicznymi.
Oprócz oceny wskazuje również zalecenia i możliwości zmiany - usprawnienia.”
[focusweb.pl, dok.elektr.]
„(…) doznania użytkownika (ang. user experience, w skrócie UX) obejmują wartości pragmatyczne,
mierzone przez takie atrybuty jak funkcjonalność i użyteczność, a także wartości hedonistyczne,
opisywane przez takie atrybuty jak wartość estetyczna, emocjonalna oraz stymulacyjna (…) piramidę doznań użytkowników zawierają trzy współzależne atrybuty:
funkcjonalność, użyteczność i przyjemność”
[Szóstek 2011, s. 102].
1. nauczalność (ang. learnability),2. efektywność (ang. efficiency),3. zapamiętywalność (ang.
memorability), 4. błędy (częstotliwość ich
popełniania przez użytkowników i łatwość wychodzenia z nich)
5. satysfakcja użytkownikaJakob Nielsen
„(…) miara wydajności, efektywności i satysfakcji użytkownika, z jakimi dany produkt może być używany dla osiągnięcia danych celów przez danych użytkowników w danym kontekście.”
ISO
Użyteczność (ang. usability)
„Dostępność informacji (w Internecie) można rozumieć jako możliwość skorzystania z interfejsu, jak i możliwość zrozumienia treści. Przez informację rozumiemy natomiast każdą treść, niezależnie od tego czy jest ona tekstowa, czy multimedialna, czy
też ma charakter interakcyjny.”
[Gatkowska, Lubaszewski red. 2013, s. 107].
Dostępność (ang. accessibility)
wiele zestawów heurystyk (10 zasad użyteczności Nielsena i Molicha)
ogólne zasady, wskazówki => duże doświadczenie, arbitralność, intersubiektywna sprawdzalność
ocena efektywności (?)
► analiza heurystyczna (heuristic evaluation)
lista cech/warunków bardziej konkretna => mniejsze doświadczenie,
mniejsza arbitralność nie przewiduje wszystkiego KONTEKST
► lista kontrolna (usability checklist)
badacz wciela się w postać użytkownika typowe zadania badanie procesów
► wędrówka poznawcza (cognitive walkthrough)
ograniczenia czasowe ogólne błędy rzeczywiste utrudnienia, przyczyny liczba badanych (?)* i ich dobór dobór techniki gromadzenia/analizy danych bogaty materiał empiryczny
*5 wg Nielsena i Kruga [Visser, Weideman 2011, s. 7]; min. 6, 7 [AlRoobaea, Al-Badi, Mayhew 2013, s. 97].
► badania z użytkownikiem (user/usability testing)
założenie: poznanie procesów myślowych użytkownika
„głośne myślenie” podczas wykonywania zadań werbalizacja (myśli, odczuć, działań) obserwacja, audio, wideo talk-aloud protocol – opis działań, wyjaśnienia wersje: concurrent think-aloud protocol,
retrospective think-aloud protocol
► think aloud protocol
Śledzenie ruchu gałek ocznych po ekranie Wynik = mapa cieplna Łączenie z TAP Kosztowność
► eyetracking
Śledzenie kliknięć myszką (linki, nieaktywne) Wynik = mapa cieplna strony Najwięcej kliknięć = najwięcej uwagi Czas potrzebny na kilknięcie Wbudowane narzędzia – obecność badacza, wiedza
badanego
► clicktracking
Analityczna hierarchizacja problemu (AHP – Analytic Hierarchy Process)
ANFIS Promethee II Analiza porównawcza, benchmarking Sortowanie kart Co-discovery (2 użytkowników) Contextual inquiry („mistrz-uczeń”) Analiza statystyczna (badanie ruchu
na stronie) Analiza zawartości (content
analysis)
Participatory design Eksperyment Obserwacja Dzienniczki Ankieta Fokus Retrospekcyjna analiza zachowań Case study
► inne metody/techniki
1. HE (10 zasad użyteczności Nielsena)WCAG2 (dobre praktyki, lista kontrolna, walidatory online)
2. Badanie z użytkownikami (usability testing)a. Technika gromadzenie danych: TAPb. Przebieg: zapoznanie się ze stroną + zadania do wykonania i
ewentualne pytania wyjaśniającec. Liczba badanych: min. 5 (rodzice/opiekunowie)d. Transkrypcja (?)e. Analiza danych empirycznych
3. Porównanie wyników z 1 (HE) i 2 (usability testing)4. Wnioski → wykazanie ewentualnych błędów/utrudnień,
wskazanie możliwych wariantów poprawy serwisu
Projekt badania
1. Sprawdzenie oferty zajęć (grupy wiekowe, tematyka)2. Dotarcie do cennika zajęć3. Dokonanie zapisu na konkretne zajęcia w wybranym
miejscu i czasie.
Przykładowe zadania
1. AlRoobaea, R.; Ali Al-Badi; Pam Mayhew (2013). Generating a Domain Specific Inspection Evaluation Method through an Adaptive Framework: A Comparative Study on Educational Websites. International Journal of Human Computer Interaction (IJHCI) nr 4.2, s. 88-116. http://www.cscjournals.org/csc/manuscript/Journals/IJHCI/volume4/Issue2/IJHCI-80.pdf [odczyt:12.12.2013]
2. Chiou, W. C. ; C. C. Lin; C. Perng (2013). A strategic framework for website evaluation based on a review of the literature from 1995-2006. Information & Management, nr 5/6, s. 282-290.
3. Fabisiak, Luiza; Paweł Ziemba (2011). Wybrane metody analizy wielokryterialnej w ocenie użyteczności serwisów internetowych [dok.elektr.]. Zeszyty Naukowe. Studia Informatica nr 28, s. 21-33. http://www.wneiz.pl/nauka_wneiz/studia_inf/28-2011/si-28-21.pdf [odczyt: 5.12.2013]
4. Gatkowska, Izabela; Wiesław Lubaszewski red. (2013). Interfejs dla osób z dysfunkcją wzroku : model kognitywny i przykład dobrej praktyki. Kraków: Wydawnictwo Uniwersytetu Jagiellońskiego.
5. Golis, Edmund; Artur Omazda (2011). Metody badania ergonomii interfejsów stron internetowych [dok.elektr.]. Prace Naukowe Akademii im. Jana Długosza w Częstochowie. Edukacja Techniczna i Informatyczna T. 6, s. 109-116. http://www.pneti.ajd.czest.pl/docs/tom6/art/eg_ao_a.pdf [odczyt: 5.12.2013]
6. Laskowski, Maciej (2011). Czynniki zwiększające jakość użytkową interfejsów aplikacji internetowych [dok.elektr.]. Logistyka nr 6, s. 2191-2199. http://www.czasopismologistyka.pl/index.php?option=com_docman&task=doc_details&gid=1319&Itemid=79 [odczyt: 5.12.2013]
7. Szóstek, Agnieszka (2011). Metody ilościowe i jakościowe w dyscyplinie interakcja człowiek-komputer. Porównanie i zastosowania [dok.elektr.]. Zeszyty Naukowe Politechniki Poznańskiej. Organizacja i Zarządzanie nr 56, s. 93-107. http://uxplus.pl/wp-content/uploads/2011/11/Art_ZeszytyPoznanskie_30.08.2011_ASz.pdf [odczyt: 5.12.2013]
8. Visser, E. B., and M. Weideman (2011). Search engine optimisation versus Website usability - conflicting requirements? [dok.elektr.]. Information Research nr 3 http://www.informationr.net/ir/16-3/paper493.html [odczyt: 7.12.2013]
Recommended