12376.linguistic meetup 21

draft abstract to linguistic meetup berlin 2021

i am applying to your diesjährige meetup with a presentation of an experiment took place within the framework of an inter- and transdisciplinary research project at the intersection of Philosophy, Medicine / Psychiatry, Psychology, and Linguistics, of the Berlin University Alliance (BUA).

since i am not yet able to present with ausgereifte resultate and the research group split up to perform the evaluation i want to focus on the more research practical difficulties we met during our work discussing technical, communication and publishing issues a young group of students may be confronted with.

you will learn about necessities to foresee and details of the experimental design to have in mind :before: it is being made accesible. small details in the design can have great impact on how easy or not you will be able to evaluate the data.

please find an appendix of the experiment in this columns. i would be glad to participating this years meetup to speak about research process in a more common approach. thank you for your attendance, grüsze, st. schwarz, fu berlin.

poster in progress.

11352.SPR evaluation / diskussion

NT:

da die auswertung u.u. noch nicht abgeschlossen ist, können weitere ergebnisse sobald verfügbar hier eingesehen werden.

zb.:

boxplot der lesezeiten vom targetelement & des preceding & folgenden elements, dh. target -1 / 0 / 1, ohne ausreiszer, 849 observationen, gruppiert nach item und itemvarianten (SM/EM/LC/MM). die lesezeiten wurden hier noch NICHT addiert.

interaktives image.

11354.

mit dem alternativen script (link) stellt lmertest signifikanzen bei SM vs ISM(MM) fest.

1. model: item ist hier das 4 varianten umfassende item, eines von 8

2. model: itemId ist hier das item in seiner variante.

aus rubio-fernandez geht nicht eindeutig hervor, welcher random effekt berechnet wurde, 1. oder 2. in beiden fällen wird mit dem script jedoch ein signifikanter unterschied in der lesezeit festgestellt, anders als mit dem zur auswertung gelangten script 1.

 

#12375.

12432.poster evaluation.

  • v.A: (st. schwarz) – actualisent soimeme
  • v.B: (st. schwertfeger, gültig)

11352.SPR Appendix

scripte / daten / stimuli

  • datenset RAW.
  • R script A: basis der auswertung von lesezeiten und gruppenbeziehungen. nicht lauffähig.
    • daten A: prepared 01. prepared 01b.
    • R script A.2: auswertungsscript im zipfile inclusive tutorial und beispielgrafiken, leider nicht lauffähig.
    • R script A.3: modifiziertes (syntax-korrigiert,st. schwarz 11363) script A.2, nicht lauffähig. ein nachvollzug der auswertung durch script A ist mir nicht möglich, deshalb habe ich mich aus weiteren resultaten herausgehalten.
    • R script A.4: nicht versucht, zum laufen zu bringen. dieses script/tutorial (st. schwerdtfeger) ist die grundlage der geltenden auswertung.
      • ongoing analysis (active inference; st. schwerdtfeger)
  • R script B: alternatives script in R (st. schwarz), das nicht in die auswertung eingeflossen ist.
  • stimuliset komplett. excel tabelle.
  • die scripte zum experiment (original: JESPR, modified st. schwarz)

 

11351.self paced reading task

11252.HU X research

working directory

die einzelnen samples wurden randomisiert mittels eines fragebogens über soscisurvey den teilnehmern zugeteilt. die daten derer, die den test bis zu ende durchgeführt haben, werden gespeichert.

Sie können die einzelnen abfragen der 8 items hier abrufen, allerdings läuft der test NICHT auf mobilen geräten.

sample 1

sample 2

sample 3

sample 4

sample 5

sample 6

sample 7

sample 8

11164.pinnwandtest

hej lydia…,

da ich nur von dir eine adresse jetzt habe der gruppe gestern, habich dich mal testweise auf dieser seite als admin hinzugefügt oder mache das gleich. eine analoge seite liesze sich dann ohne probleme erstellen, die als pinnwand funktionieren könnte. es müszten nur händisch die emailadressen der fu benutzer eingetragen werden, was ja dann jeder machen kann. ich habe ja nur eine handvoll adressen selbst der kommilitonen, das müszte dann jeder nach belieben aber machen können als admin. also nur ein test, kuck einfach obs klappt… st.

A.einleitung

11077.heidi: working title.

ich versuche an dieser stelle, die arbeit über das phänomen voranzubringen. lassen Sie mich zuerst einiges grundsätzliche anmerken, um miszverständnissen vorzubeugen.

zielgruppe der untersuchung

sind in erster linie sprecher, von denen gesagt werden kann, dasz sie die deutsche sprache nicht gut beherrschen. ob es sich dabei um learner handelt, die deutsch zu einem späteren zeitpunkt erworben haben als ihre muttersprache oder um muttersprachler, die die konventionen der deutschen sprache nicht umsetzen können aus den verschiedensten gründen, sei dahingestellt. man wird, wenn man auf das phänomen aufmerksam geworden ist, es in allen möglichen zusammenhängen wahrnehmen und es wird sich nicht immer sagen lassen, woher der kompetenzmangel der jeweiligen sprecher rührt. es handelt sich hierbei um sprecher aller möglichen geschlechter, ich spare mir jedoch redundante referenzen aufwendig zu markieren, da mir eine differenzierung nach verschiedenen genderidentitäten in der hauptsächlich untersuchten altersgruppe durch eine auf MÄNNliche/WEIBliche und nicht neutrale identifizierung abhebende pronominalisierung zumindest meinem verständnis der dt. sprache nach unangebracht erscheint.1

zum vorgehen

wir werden uns in folge über einige begriffe klarheit verschaffen müssen, um über das phänomen einig zu werden. wir haben es mit einem zuerst von mir subjektiv so wahrgenommenen (phänomen) zu tun, über welches konkret ich bis jetzt keine untersuchungen finden konnte. die angestellte hypothese also ist z.zt. noch sehr gewagt, darüber bin ich mir bewuszt. ich hoffe, zu dieser im folgenden einiges formulieren zu können, das zumindest ihren nachvollzug ermöglicht, so absurd sie weiterhin einigen erscheinen möchte.

samling

fehlposition:

an dem satz [ich hatte die eier gezählt] vermissen wir intuitiv eine nicht besetzte position. diese musz entweder durch den kontext, in dem der satz (als antwort zb. auf: [woher wusztest du, dasz ein ei fehlte?]) oder durch die fehlende adverbiale bestimmung [vorher] ausgefüllt werden, damit er sinnvoll verstanden werden kann. dieser (aspekt) weist beim plusquamperfekt auf ein notwendiges potenzial hin, welches umgesetzt wird, wenn die bedingungen (spezifizierungen) erfüllt sind.

  1. ich verbitte mir den hinweis darauf, sich :nicht mitgemeint zu fühlen:. sehr wahrscheinlich wird niemand im publikum sich in der referierten gruppe wiederfinden; zur verbreitung des untersuchten phänomens wird die arbeit aber vielleicht einiges erhellen können. ↩︎

11537.evaluation

okay…, schon das erste problem: es wäre schön gewesen, die jeweils zustandegekommenen werte 1 (keine zustimmung) bis 4 (super zustimmung) addieren zu können über die datensätze hinweg. damit hätten wir eine sehr fein abgestufte skala (diagramm) bekommen, wie man sieht. da aber (mein fehler, jetzt korrigiert) :keine antwortpflicht: bestand…, cvd auch werte wie -9 für eine nicht beantwortete frage auftauchen (siehe EMPATHISCH) läszt sich das jetzt nicht mehr :so: einfach machen. hat jemand eine idee? man könnte hier für alle -9  eine 2,5 einsetzen, oder? also den median zwischen 1 und 4? dasselbe problem bei ungleichen anzahlen von datenreihen für GS / beidnennung, cvd 7 reihen für GS und 5 für BN ergeben dann unterschiedliche summen. wenn wir allerdings mit dem durchschnitt rechnen (was obiges problem lösen würde, hätte wir keine detaillierte abbildung mehr, was auch schade ist… i elaborate on that…

> mit durchschnittswert, alle -9 entfernt:

data_spund003_2021-01-01_09-45EVALdiagramm.jpg

> ich nehme die antwortpflicht wieder raus. es wird für autisten immer noch schwer sein, alle fragen zu beantworten, es sind ein paar -9 codes aufgetaucht, was eine addition der codes 1-4 und damit abbildung auf der menge der antworten sowieso nicht mehr ermöglicht. es ist besser ein paar unvollständige bögen zu haben als solche, die wegen frust über unmögliche antworten abgebrochen werden… / ich habe für meine grafiken das geomittel gewählt, das die antworten multipliziert und durch die wurzel der anzahl antworten teilt.

11537.data

ich werde hier ab jetzt dann nur noch den datensatz aktualisieren, er hat den datumsstempel im dateinamen, werdet ihr dann sehen, von wann das jeweils ist…

die variablen sind:

QU02_1 bis _38: bogen mit glottalstop in der ersten abfrage

QU07_1 bis _38: bogen mit beidnennung i.d. ersten abfrage

QU08_1 bis _38: bogen mit glottalstop i.d. zweiten abfrage

QU09_1 bis _38: bogen mit beidnennung i.d. zweiten abfrage

11536.last edit

guten morgen gruppe…,

die samples von anabelle sind integriert in den bogen und dieser soweit fertig mit den neuen änderungen. ich fänds nur gut, wenn ihr vielleicht nochmal die meta geschichten ankuckt…, also alle beitexte, die zu lesen sind, einführer usw., weil diese ja auch die umfrageergebnisse beeinflussen, also meine wortwahl für alles, was zu lesen ist. können ja kleine sachen sein, die euch auffallen aber mir eben nicht. soll ich dafür ein ultimatum setzen? machich einfach bzw. kann man ja jederzeit sachen ändern, wenn jemandem, oder auch von euren testpersonen, noch was auffällt.

also hier: https://www.soscisurvey.de/spund003/?q=basernd <<<<< (diesen link verschicken!)

der link zum bogen, der dann beim aufruf zufällig mit dem glottal stop sample oder der beidnennung startet. wir haben dann pro sample über die befragung verteilt auch zwei datenreihen, die nochmal eine genaue aufschlüsselung erlauben, falls uns zum thema „die leute wissen, worauf die befragung abzielt“ nochwas einfällt bzw. wir können die verzerrung im unterschied der ergebnisse beobachten (das ist eine hypothese, oder?) die dann jeweils für den erstabruf oder den zweitabruf im fragebogen herauskommen. natürlich kann man, sollte es keine signifikanten unterschiede geben, beide reihen auch als eine interpretieren und hat dann natürlich die doppelte menge an daten. ich hoffe, ihr habt das alle verstanden, was an dem zufallsprinzip (mir jdfs.) so wichtig war. es macht für das prozedere selbst keinen unterschied.

wichtig: wir müssten uns nur verständigen darauf, den bogen dann nicht mehr testweise aufzurufen, bzw. ihr müsst, wenn doch, dann peinlich genau die zeit dokumentieren, wann ihr darauf zugreift, dann kann man diesen datensatz von der auswertung ausschlieszen. ich sehe keine ip-adressen oderso, sondern nur die zugriffsdauer, start/ende. 

okay…, hoffe es kuckt einer demnächst hier rein, (ultimatum?): der link kann dann wie o.a. verschickt werden, je früher desto besser.


ich stelle hier nochmal die abrufbaren daten, wie momentan gültig, als anhang ein. 

data_spund003_2020-12-31_11-28.csv.tsv > ihr seht, der letzte datensatz hat die nummer CASE 61. 

values_spund003_2020-12-31_11-30.csv > das sind beides variablenschlüssel, um die datenreihen zu verstehen

variables_spund003_2020-12-31_11-29.csv > -||-

data_spund003_2020-12-31_11-30.csv.tsv > das ist dasselbe wie oben, nur mit den antwortcodes in der tabelle stehend, die dadurch sehr in die breite geht… / also zum ankucken ganz gut, aber zur extraction der datenreihen obiges besser geeignet.

u.u. müszt ihr die .tsv endung entfernen, bevor ihrs öffnen könnt? das ist das format, indem ich es hier laden tue von soscisurvey. also .csv sollte als endung geeignet sein, es in excel whatever zu öffnen. (ich sehe, es wird auch so, mit .tsv endung geöffnet…)

items update

  1. hat Humor
  2. ist kreativ
  3. ist ein geselliger Mensch
  4. hat Selbstbewusztsein
  5. ist in meinem Alter
  6. ist höflich
  7. ist attraktiv
  8. ist empathisch
  9. ist sympathisch
  10. kuckt Serien oder Filme in der Originalsprache
  11. spricht mehrere Sprachen
  12. isst Fleisch
  13. reist gerne ins Ausland
  14. hat ein überdurchschnittliches Einkommen
  15. ist gesellschaftlich hoch angesehen
  16. ist konservativ
  17. ist trendbewuszt
  18. vermeidet Anglizismen
  19. ist konfliktfreudig
  20. ist meinungsstark
  21. ist harmoniebedürftig
  22. hat wahrscheinlich Abitur gemacht
  23. arbeitet wahrscheinlich in einem handwerklichen Beruf
  24. arbeitet wahrschenlich nicht
  25. liest Krimis
  26. liest Sachbücher
  27. hört klassische Musik
  28. hört Tekknomusik
  29. hört deutsche Schlager
  30. hört Hiphop
  31. ist in einem gemeinnützigen Verein tätig
  32. fährt oft mit dem Taxi
  33. fährt viel Fahrrad
  34. besitzt ein Auto als Statussymbol
  35. ist gleichgültig
  36. ist aufgeschlossen
  37. ist leicht beeinfluszbar
  38. ist politisch aktiv

11535.progress samples

guten morgen les etudiantes… / habe schonmal zwei samples improvisiert und den fragebogen aktualisiert. es sind z.zt. mehrere mögliche abfragen drin, je nach link, der weitergegeben wird, der fragebögen besteht aus zwei identischen seiten, die sich nur durch das (ebenfalls bis auf die variable identische sample) unterscheiden.

zufällig > https://www.soscisurvey.de/spund003/?q=basernd

mit glottalstop zuerst: https://www.soscisurvey.de/spund003/?q=basegs

mit suffixen zuerst: https://www.soscisurvey.de/spund003/?q=basesfx

also entweder gezielt an leute die verschiedenen links schicken oder den -basernd- link zur zufallsauswahl. (ich wäre eigentlich dafür, nur ein sample pro bogen bzw. teilnehmer abzufragen, wir kriegen die ergebnisse aus der ersten und zweiten abfrage nicht mehr auseinanderdividiert cvd. die von mir angenommene verzerrung durch die fehlende verschleierung des ziels wird nur durch sehr viele teilnehmer relativiert. wenn jeweils nur ein sample bewertet würde, erübrigt sich das. bei der zufallsauswahl besteht dann natürlich das risiko, dasz die gewichtung glottalstop / suffixe nicht mehr gleich verteilt ist also unterschiedlich viele teilnehmer die jeweiligen bögen beantworten, das ist aber wohl nicht so schlimm, wie die angenommene verzerrung finde ich…

bisheutabend…

> samples:

 

update 1443: das mit den zwei samples in einem fragebogen hat sich erledigt, ist doch kein problem… / bin am basteln. alles nur eine frage, wie man die daten dann auswertet. wir haben dann pro sample zwei datensätze / teilnehmer, einmal den, der bei den teilnehmern als erstes erschien, und zweitens den, bei denen dasselbe sample als zweites erschienen ist. 

ein problem könnte jedoch auch darin bestehen, dasz wir uns ja eventuell für einen sprecher entscheiden unter uns? das könnte man ebenfalls umgehen, indem wir noch mehr varianz in die bögen bringen und zb. auch zwei verschiedene sprecher und samples integrieren, die dann eben auch nur zufällig erscheinen, aber etwas unsere eigenen stil-färbenden elemente nivellieren, oder… / die ergebnisse kann man dann natürlich nur unter den sprechern selbst gegeneinanderlesen, aber bei genug teilnehmern gibt es vielleicht auch dann erkenntnisse…

nochwas: ihr könnt mal probieren, wenn ihr euch mit soscisurvey vertraut machen wollt, das zu importieren in ein eigenes projekt…, also die rubrik fragen selbst bearbeiten… / es ist zwar sinnvoll, wenn das nur einer von uns weiter entwirft, aber so könnt ihr euch das eben auch mal ankucken… > package_questions_2020-12-30.xml  müszt ihr runterladen und dann in soscisurvey als rubrik importieren…

und: falls schonmal jemand die auswertung wagen will, zwei datensätze + variablencodes usw., damit ihr damit was anfangen könnt. viel spasz…

11525.

  1. näxtes treffen: mi, 30.12. 1800

due:

  • sätze ausdenken, vielleicht schon eingesprochen haben und bis dahin hier hochladen als mp3? dann können wir das gleich entscheiden und das kann ja jed/ bis dahin schaffen, oder? dann ist die integration in den bogen ohne grosze zeit dazwischen möglich…
  • final state of items

sonst:

es wäre gut, etwas schriftlich :komsepsionelles: von jedem zu haben, das wir dann zusammengieszen können, so dasz am ende ein text zur studie vorhanden ist oder vorlage für die präsentation, d. wir vielleicht als komplettpaket begleitend hier für alle andern des kurses hochladen können? > ich bin nicht für eine powerpoint, wenn das aber jemand anders sieht und ansprechend gestalten kann, auch gut. mir liegen blanke texte mehr…

  • d.h. von jedem ein paar gedanken zu der (gendergeschichte vielleicht) und was unser ziel ist, herauszufinden, etwas dezidierte aussagen über die variablen. (nicht um hier anzutreiben, aber ich denke uns selbst darüber zu unterrichten, wo wir grad sind, schafft ein biszchen :stoff:, der dann integriert werden kann…) / danielas text bzw. die verweise, denen u.u. schon nachgegangen worden ist, sind ja eine gute grundlage, oder…