Informationsrahmen für empirische Ernährungsstudien

Kap. 2.3.2.4. Information-orientierte Dimensionen (aus OLT 134)

Bei den Information-orientierten Dimensionen der Ernährungsepidemiologie werden zwei verschiedene Aspekte herausgehoben, die beide ebenfalls ein Kontinuum zwischen zwei Polen haben. Der eine Gesichtspunkt beschreibt die Stellung des Forschers zur Datengewinnung. So kann er selbst – im Feld - Daten für die betreffende Studie gewinnen, das sind direkte Methoden bzw. Primärerhebungen; andererseits können die Daten aus anderen Quellen bzw. Erhebungen stammen, das sind indirekte Methoden bzw. Sekundärerhebungen.
Die sekundären Daten, also solche, die bereits erhoben sind, wenn eine ernährungsepidemiologische Studie geplant wird, können ihrerseits in zwei prinzipiell verschiedene Arten eingeteilt werden. Es gibt zum einen solche, die bereits aufgearbeitet und für einen anderen Zweck zusammengestellt sind. Es handelt sich dabei fast ausschließlich um aggregierte Daten, d. h. es ist nicht möglich, auf die Daten einzelner individueller Fälle zurückzugreifen. Diese Daten sind meist leicht zugänglich, denn sie sind mit der Absicht, andere zu informieren, bearbeitet worden. Es sind Publikationen, wie Fachartikel, Bücher, Forschungsberichte usw. Neuerdings gibt es auch Daten auf elektronischen Datenträgern zu erwerben. Sie sind also nach außen gerichtet und können als externe sekundäre Daten bezeichnet werden.
Daneben gibt es interne sekundäre Daten. Sie können auch als ein intern, nur für bestimmte Personengruppen klassifizierter Bericht vorliegen. Zu dieser „grauen Literatur“ zählen z. B. Marktstudien von Firmen und interne Gutachten staatlicher Stellen. Interne sekundäre Daten umfassen jedoch auch unaufgearbeitetes Datenmaterial von individuellen Fällen, die aus den verschiedensten Gründen festgehalten wurden. Beispiele dafür sind: Krankenblätter in Arztpraxen und Krankenhäusern, Daten von Schuleingangsuntersuchungen und Musterungen, oder die Buchführung und die Speisepläne von Großküchen. Solche Daten sind verständlicherweise weniger leicht zugänglich als die externen Sekundärdaten. Hier stehen andere Interessen und Schutzvorschriften „im Wege“, wie die ärztliche Schweigepflicht und der persönliche Datenschutz. Häufig muss auch das zugänglich gemachte Datenmaterial erst aufgearbeitet werden, wie z. B. das Herausziehen von anthropometrischen Daten aus den Karteien der Gesundheits- bzw. Wehrersatzämter oder die Berechnung der verzehrten Speisen aus den Unterlagen von Großhaushalten. Die dabei anfallende Arbeit kommt der von Primärerhebungen recht nahe.
Sekundärdaten der Ernährungsepidemiologie umfassen alle sie betreffenden Variablenbereiche. Sie stehen am Beginn des Forschungsprozesses (Abb) und sorgen für eine erste Ordnung des Forschungsfeldes. Diese Arbeit kann als Literatur-Recherche bezeichnet werden, die heute durch EDV-gestützte Informationssysteme bzw. Datenbanken erleichtert wird (Oltersdorf 1987a). Bedingt durch die Breite des ernährungsepidemiologischen Forschungsgebietes und vor allem dadurch, dass „ältere“ Literatur (das betrifft in der Regel die Zeit vor 1960) nicht in den modernen Datenbanken aufgeführt ist, sollte die traditionelle manuelle Literatur- und Informationssuche in den verschiedenen Bibliotheken nicht vergessen werden. Dazu zählen ebenso gezielte Informationsgespräche mit den jeweiligen Fachleuten. Die Sekundärdaten dienen in der Planungsphase dazu, dass mit Hilfe der „Check-Listen“, die für die geplante Studie wichtigen Variablenbereiche von den weniger relevanten abgegrenzt werden können und das Untersuchungsmodell aufgebaut wird.
Die demographischen Daten zählen generell zu den wichtigsten Bereichen. Aus Daten - wie den Einwohnerzahlen, Alters- und Geschlechtsverteilung, Verteilung in einzelnen geographischen Räumen, Nationalität, Stammeszugehörigkeit, Zu- und Abwanderungen, Familienstand, Familiengröße, Religionszugehörigkeit, Ausbildungstand, Berufsangaben usw. - sind Hinweise für folgende Anwendungsgebiete abzuleiten: - Ziehung und Beurteilung einer Stichprobe; Charakterisierung der Grundgesamtheit, Verteilung von Bevölkerungselementen, - Interpretation von Erhebungsdaten durch Hinweise auf Verteilung von verschiedenen Bevölkerungselementen, wie z. B. unterschiedliche Familiengrößen, Einwohnerdichten und Nationalität.

Viele nützliche Hinweise sind aus ökonomischen Daten abzuleiten. Aus Angaben - wie Einkommen, Produktionszahlen, Preise, Lebenshaltungskosten, Besitzverhältnisse, Arbeitslosenzahlen, Handelszahlen, Angaben zum Staatshaushalt usw., besonders wenn solche Daten in Form von Zeitreihen vorliegen - können folgende Gesichtspunkte betrachtet werden: - Verteilung des Nahrungsmittelkonsums, - mögliche - ökonomische - Risikogruppen und -bereiche.
Geographische Daten, wie Topographie des Untersuchungsgebietes, Klima- und Bodenkarten, Wasserreserven, Infrastruktur usw. liefern Hinweise auf saisonale und räumliche Verteilungen, die z. B. für die logistische Planung der Feldstudien nötig sind.
Sozio-kulturelle Daten umfassen sehr viele verschiedene Einzelaspekte mit unterschiedlicher Bedeutung für ernährungsepidemiologische Studien. So haben Kultur bzw. die Lebensstile Beziehungen zum Ernährungs- und Gesundheitsverhalten. Verschiedene Volksgruppen zeichnen sich durch unterschiedliche Verzehrsgewohnheiten aus. Werte und Normen prägen Lebensstile und damit Verhalten. So können Angaben zu so unterschiedlichen Bereichen, wie die Rollen der Geschlechter und Altersgruppen, die Erziehungsstile, die Beziehungen zwischen den gesellschaftlichen Gruppen, Wohn- und Lebensformen, Meinungsbildung durch Massen-Medien, Umweltbewusstsein usw. für ernährungsepidemiologische Studien nützlich sein.
Daten aus dem Gesundheitswesen (PHN ⇒ Gesundheitsberichte) haben eine sehr enge Beziehung zur Ernährungsepidemiologie. Es sind Angaben über die Todesfälle und deren Ursachen, über die Häufigkeit und Verbreitung von Erkrankungen. Es gehören auch Angaben zum Gesundheitswesen dazu, welches Personal und welche Einrichtungen vorhanden sind; welche Maßnahmen zur Prävention, Früherkennung, Behandlung und Rehabilitation vorgenommen werden; die Inanspruchnahme der verschiedenen Gesundheitseinrichtungen, sowie die Verteilung der entsprechenden Kosten. Informationen zum individuellen Gesundheitsverhalten - z. B. der Tabak-, Alkohol- und Drogen-Konsum sind von Interesse und ebenso Daten über die Umweltqualität, z. B. Luft-, Wasser- und Boden-Umweltkataster-Daten und die Gehalte von Schadstoffen in Lebensmitteln.
Ein letzter, jedoch zentraler Bereich von Sekundär-Daten sind solche zur Ernährungssituation. Das sind Angaben über die Agrarproduktion und den Agrarhandel, über die Lebensmittelverarbeitung und -vermarktung und über den Lebensmittelkonsum und -verzehr. Weiterhin gehören hierher: Daten zur chemisch-toxikologisch und hygienisch-mikrobiologischen Lebensmittel-Qualität, Informationen über die Lebensmittelgesetzgebung und -kontrolle, Angaben über Ernährungsaufklärungs-Maßnahmen; Daten zum Ernährungsstatus der Bevölkerung und Informationen zu Diät- und Ernährungsformen.

Die Sekundärdaten dienen meist dazu, die angestrebten Forschungsziele zu konkretisieren; es muss j edoch darauf hingewiesen werden, dass sich aus der Beschäftigung mit solchen Informationen auch Forschungshypothesen ableiten lassen, indem auffällige Veränderungen in den Ernährungs- und Gesundheitsdaten registriert und hinterfragt werden. Dazu zwei Beispiele. Durch Vergleiche von internationalen Daten zum Verzehr an Fetten und über Krebs-Erkrankungen-Daten wurden Beziehungen beobachtet, aus denen Hypothesen über die möglichen Zusammenhänge zwischen Krebs und dem Verzehr von gesättigten tierischen Fetten abgeleitet wurden (Carroll 1975), die heute in einer Reihe von epidemiologischen und experimentellen Studien überprüft werden. D. P. BURKITT und Mitarbeiter registrierten die unterschiedliche Häufigkeit von Magen-Darm-Erkrankungen (Divertikulose, Appendizitis, Krebs) in Industrie- und Entwicklungsländern und nahmen die Unterschiede in der Nahrung der Bewohner dieser Gebiete zur Kenntnis; so zeigt sich, dass sich bei uns mehr verarbeitete Lebensmittel und damit weniger Ballaststoffe in der Nahrung finden. Hinzu kamen informelle Sekundärdaten, wie z. B. Gespräche mit (Medizin-)Kollegen aus Krankenhäusern in ehemaligen englischen Kolonien, die über Probleme mit modernen Spül-Toiletten berichteten. Die Afrikaner hätten häufigen Stuhlgang mit großen Volumen und niedriger Dichte, so dass sich das Ausgeschiedene nur schwer abspülen ließe. Daraus wurde die Hypothese von BURKITT und Mitarbeitern abgeleitet, dass der Verzehr von unverarbeiteter Getreidenahrung, d. h. hohe Aufnahmen von Ballaststoffen („dietary fiber“), die Stuhlmenge erhöht und die gastro-intestinale Passage-Zeit verkürzt und somit toxische Substanzen sowohl in geringerer Konzentration als auch mit geringerer Zeitdauer auf den Organismus einwirken können. Diese Hypothese war die Grundlage für erste ernährungsepidemiologische Studien, die durch entsprechende weltweite Forschungskooperation durchgeführt wurden und deren Publikation einen wahren „Ballaststoff-Boom“ auslöste. Heute gibt es dazu eine fast unübersehbare Fülle von weiteren epidemiologischen aber auch experimentellen Studien. Viele Monographien, Symposien und Kongresse widmeten sich bisher diesem Thema. Die Rohfaser ist heute Bestandteil von Ernährungsempfehlungen und die Lebensmittelwirtschaft wirbt mit dieser Substanz.

Ein deutlicher Vorteil von Sekundärdaten liegt in dem schnellen und kostengünstigen Zugang zu Informationen, mit denen wissenschaftlich gearbeitet werden kann. Durch die rasanten Entwicklungen auf dem Gebiet der elektronischen Datenverarbeitung kann dies sehr intensiv betrieben werden. Diese „Schreibtisch-Epidemiologie“ ist nützlich; viele Daten anderer Erhebungen liegen ungenützt auf „Daten-Friedhöfen“.
Dem offensichtlichen Vorteil von Sekundärdaten im Vergleich zu Primärdaten stehen jedoch Nachteile gegenüber, die nicht unterschätzt werden dürfen. Häufig wird hier mangelnde Datenqualität angeführt, doch dies ist absolut nicht zutreffend. Wie Primärdaten müssen auch Sekundärdaten auf ihre Qualität überprüft werden. Diese Prüfungen sind bei Sekundärdaten häufig nicht so leicht durchzuführen, da entsprechendes Datenmaterial nicht zugänglich ist. Die geringeren Kontrollmöglichkeiten stellen einen prinzipiellen Nachteil der Sekundärdaten dar. Zur Prüfung müssten über die Quellen der Sekundärdaten entsprechende Qualitätsmerkmale verfügbar sein. An Publikationen und Berichte sind entsprechende Anforderungen zu stellen:
- In welchem Rahmen wurden die Daten erhoben, was war das Untersuchungsziel, wer war der Auftraggeber?
- Welche Untersuchungsmethoden wurden angewandt?
- Welche Datenkontrollen wurden vorgenommen? Welche Probleme - wie „Schiefen“ in der Stichprobe und den Meßmethoden - wurden wahrgenommen?
- Wo und wann wurden die Daten erhoben, wer waren die Untersucher?
- In welcher Weise wurden die Daten verarbeitet?
Fehlen solche Angaben auch nur teilweise, dann kann die Qualität der Sekundärdaten nicht mehr beurteilt werden. Das Körpergewicht auf einer Karteikarte kann dann zwar zur Kenntnis genommen werden. Ist jedoch nicht bekannt, wie und mit welcher Genauigkeit gewogen wurde, ob das Gewicht mit oder ohne Bekleidung registriert oder gar nur abgeschätzt wurde usw., dann kann bei der weiteren statistischen Auswertung z. B. der Messfehler nicht berücksichtigt werden.
Bei Sekundärdaten kann nur auf die Datenbereiche zurückgegriffen werden, die andere Forscher mit meist auch anderen Forschungszielen erhoben haben, somit ist der Untersuchungsraum eingeengt. Daten, die im Rahmen anderer Forschungsziele erfasst wurden, können durch bestimmte Wahrnehmungs-Verzerrungen, die durch das selektive Wahrnehmen bedingt sind, beeinflusst sein. Die vorgegebenen Daten-Zuordnungen können nicht mehr aufgehoben werden; sind z. B. Obst und Gemüse zusammengefasst aufgeführt worden, dann gibt es keine Möglichkeit mehr, sie z. B. nach bestimmten Apfelsorten aufzugliedern. Altersgruppen von 21- bis 25-Jährigen sind nicht identisch mit 20- bis 24-Jährigen; Gewichtsklassen von -5% bis +5% BROCA-Normgewicht lassen sich nicht mit denen von 0 bis -10% bzw. 0 bis +10% BROCA-Normgewicht vergleichen. In verschiedenen Studien werden verschiedene Bezugsgrößen und Dimensionen (z. B. kg/pounds oder cm/inch) benutzt und dies birgt die Gefahr des falschen Datenvergleichs in sich.
Ein weiterer prinzipieller Problembereich von Sekundärdaten ergibt sich aus der Frage nach deren zeitlichen Gültigkeit. Dies betrifft vor allem die saisonalen und säkularen Effekte. Sind Herbst- und Frühjahrs-Vitamin D-Daten vergleichbar? Sind die Abkaufzahlen für Kartoffeln in der Einkellerungszeit (September) vergleichbar mit Daten aus anderen Monaten? Wie schnell veralten Daten? Dazu gibt es keine allgemeingültigen Antworten; das hängt in entscheidendem Maße vom Forschungsziel ab. Soll der Zeittrend analysiert werden, dann sind gerade die Veränderungen das Wesentliche. Die Veränderungen hängen auch vom Variablenbereich ab; so sind Angaben zu sozial-psychologischen Sachverhalten, wie z. B. dem Ernährungswissen oder den Einstellungen zu Fremdstoffen in Lebensmitteln, sicherlich Zeit-labiler als solche aus dem naturwissenschaftlichen Variablenbereich. Bei internen Sekundärdaten - besonders bei entsprechenden Falldaten - sind Qualitätsüberlegungen von der Art notwendig, welche Daten-Verzerrungen aufgetreten sein könnten. Schiefen können z. B. durch die Verschiedenartigkeit der einzelnen Krankenhäuser, Ärzte, Versicherungsunternehmen usw. auftreten, die von verschiedenen Typen von Menschen in Anspruch genommen werden. Zu einem berühmten Medizin-Professor in einer Universitätsstadt kommen andere Patienten als in eine Landarzt-Praxis; zu einem alten Arzt gehen andere Menschen als zu einem jungen. Verzerrungen bei sekundären Falldaten ergeben sich auch aus der unterschiedlichen Art und Menge an vorhandenen Informationen. Ein Arzt notiert nicht alle Beobachtungen auf dem Krankenblatt; er wählt aus und notiert in bestimmten Abfolgen. Eine Diätassistentin protokolliert den Ablauf der Ernährungstherapie eher aus ihrer Sicht als aus der der Betroffenen. Die Problematik der Todesursachen-Daten soll als letztes Beispiel zur Veranschaulichung der Schwierigkeiten der Beurteilung von Daten-Schiefen herangezogen werden. Auf dem Totenschein, der als prinzipielle Quelle von sekundären Falldaten verfügbar ist, wird zwar neben einer Haupttodesursache („Welche Krankheit oder Verletzung hat den Tod unmittelbar herbeigeführt?“) noch nach zwei hintergründigen Ursachen gefragt („Welche Krankheiten oder Verletzungen lagen der Angabe unter a) (s. o. unmittelbare Todesursache) ursächlich zugrunde? [b, c]“) und eine weitere Angabe ist möglich („Welche anderen wesentlichen Krankheiten bestanden zur Zeit des Todes?“); doch wird meist nur das Grundleiden bzw. die unmittelbare Todesursache in eine darauffolgende Statistik mitaufgenommen. Ebenso gehen die weiter zurückliegenden Ursachen weniger oft in die Totenscheine ein als die naheliegenden. Das Problem wird bei Krankheiten bzw. Todesursachen mit langen Latenzzeiten bedeutender. Die unterschiedlichen Diagnose-Qualitäten müssen auch beachtet werden. Die verschiedenen Untersucher können unterschiedlich ausgebildet sein; dies ist besonders bei internationalen Vergleichen zu berücksichtigen; bei Analysen, die einen längeren Zeitraum umfassen, muss das sich mit der Zeit ändernde Diagnose-Wissen beachtet werden. Mit den medizinischen Erkenntnisfortschritten differenziert sich die Diagnostik, und es werden immer wieder neue Krankheiten entdeckt (wie z. B. AIDS) (Fassl 1978, Junge 1984). Die Problembereiche der Sekundärdaten sind bekannt, und damit konnten auch Vorstellungen entwickelt werden, wie die Probleme zu verringern sind, um die Sekundärdaten besser nutzen zu können. Dazu ist es nötig, dass die Anforderungen der Epidemiologie bzw. der Medizinstatistik im allgemeinen, aber auch ihrer Spezialbereiche - wie der Ernährungsepidemiologie besser berücksichtigt werden. Der erste Schritt dazu wäre, die Anforderungen besser bekannt zu machen, d. h. die Epidemiologie muss besser unterstützt und gefördert werden, ihre „Stimme“ muss kräftiger werden. Daten sollen einheitlicher und transparenter erfasst werden; sie sollen häufiger und regelmäßiger erfasst werden, und sie sollen der Wissenschaft leichter zugänglich gemacht werden. Das ruft jedoch bedeutende Zielkonflikte hervor, die immer wieder neu überdacht werden müssen. Dem besseren Zugang zu den Daten stehen die berechtigten Ansprüche der Einzelnen nach besserem Datenschutz gegenüber. Heute sind große und weitverzweigte Daten-Vernetzungen möglich. Unsere Einkommens- und Personal-Daten sind in Computern gespeichert, genau wie Daten bei den Banken und beim Finanzamt. Wir können mit Kreditkarten am Warenhaus-Scanner bezahlen. Die Krankenkassen speichern entsprechende Krankheits-bezogene Daten, und auch Freizeitaktivitäten können in entsprechenden Vereins-Computern festgehalten sein. Technisch ist ein Datenverbund kein Problem, und viele wichtige ernährungsepidemiologische Fragestellungen könnten mit Hilfe solcher Daten bearbeitet werden. Dem Eigeninteresse eines ernährungsepidemiologischen Forschers stehen die privaten Ängste über den „kontrollierten Menschen“ gegenüber. Die Zielkonflikte über gesellschaftliche Daten-Interessen und -Nutzen und persönlichen Datenschutz müssen im demokratischen Rahmen diskutiert und entschieden werden. Aus der Sicht der Wissenschaft werden regelmäßige und umfassende Datenerhebungen im Sinne von Überwachung („Monitoring“ bzw. „Surveillance“, s. u.) benötigt, damit z. B. über die Verbreitung von ernährungsabhängigen Erkrankungen bessere Informationen vorliegen, als über den unabänderlichen Endpunkt - den Tod. So gibt es berechtigte Forderungen nach Registern, d. h. auch Meldepflicht, für Krebs- und Herz-Kreislauf-Erkrankungen. Diese gibt es in einigen Ländern, wie z. B. in der ehemaligen DDR, aber nicht bei uns. Andererseits gibt es berechtigte Datenschutz-Interessen, wie sie z. B. in der Diskussion um die Volkszählung geäußert wurden (Bundestag 1980, Dudeck 1982). Die Sekundärdaten-Lage hinsichtlich ernährungsepidemiologischer Belange ist bei uns besonders schlecht. So gibt es über die räumliche und zeitliche Verteilung und Verbreitung der wichtigsten Fehlerernährungsform - der Überernährung - keine fortlaufenden Daten. Es sollte jedoch genauso möglich und wichtig sein, Körpergewichtsdaten von der bundesrepublikanischen Bevölkerung zu ermitteln, wie dies bei ökonomisch interessanten Verkaufsdaten der Fall ist. Es gibt zwar eine kontinuierliche Messung zum Fernsehkonsum (Kirschner 1984), aber kein Gewichts-Monitoring. Die nötige gezielte intensive Beschaffung von Sekundärdaten stellt einen Übergang zu den Primärdaten dar. Das Kontinuum auch in dieser Forschungs-Dimension wird dadurch deutlich, dass auch kombinierte Sekundär- und Primärdaten-Erhebungen durchgeführt werden können. So könnten z. B. die Krankenblätter einer Diabetes-Ambulanz dazu dienen, die Studienteilnehmer nach ihrem jeweiligen Krankheitszustand - z. B. Glukose-Toleranz, Blutdruck usw. - und nach der Einhaltung der entsprechenden Therapie - wie z. B. Diäteinhaltung - ausgewählt werden, um danach weitere Primärdaten zu erheben.

Die Beschreibung der Erfassung von Primärdaten erfolgt erst in einem folgenden Kapitel (Kap.3), hier soll jedoch ein Gesichtspunkt der Informations-orientierten Dimension aufgegriffen werden, der für die Darstellung der Unterschiede zwischen Primär- und Sekundär-Daten wichtig ist. Das Kontinuum des Datengewinnungsprozesses reicht, wie bereits erwähnt, von der unstrukturierten Beobachtung bis hin zu den streng kontrollierten und strukturierten Messungen. Informationen können durch Beobachten gewonnen werden, das betrifft die Variablenbereiche, die Handlungen umfassen, wie z. B. das Einkaufs- und Ernährungsverhalten. Durch die Betrachtung der Gegenstände - wie Nahrungsmittel - kann man auf deren Mengen schließen, obwohl sie genauer zu messen sind. Bei theoretischen Konstrukten - wie den Variablenbereichen: Einstellungen, Motive, Wissen über Ernährung und Gesundheit - gibt es keine direkten Beobachtungen. Sie können höchstens indirekt, z. B. aus der Beurteilung der Mimik und Gestik, abgeleitet werden. Der Forscher kann direkt mit oder ohne Hilfsmittel beobachten.
Solche Hilfsmittel sind Film- und Videokamera, Fotoapparate, Tonaufzeichnungsgeräte, aber auch Zeichnungen und neuerdings auch miniaturisierte tragbare Registriergeräte (SAMI - socially acceptable monitoring instruments, z. B. für körperliche Aktivität). Der Forscher kann auch andere Personen mit der Beobachtung beauftragen. Solche „Spione“ (verdeckte Ermittler) können von außerhalb kommen, es können jedoch auch Mitglieder der zu untersuchenden Gruppe sein. Beispiele sind die Gewährsmänner in volkskundlichen Studien bzw. die Eltern beobachten ihre Kinder und umgekehrt. Sogar die Studienteilnehmer können herangezogen werden, um sich selbst zu beobachten. Es gibt entsprechende Protokoll- bzw. Tagebuch-Methoden. Auch hier sind wieder alle Kombinationen möglich. Fremd- und Selbstbeobachtungen ergeben meist Unterschiede und selbst diese Differenz ist als solche eine weitere Information. Menschen als Beobachter haben den Vorteil, dass sie flexibel auf die beobachtbaren Ereignisse reagieren können; was bei manchen Forschungszielsetzungen aber auch als Nachteil zu bewerten ist.
Menschen beobachten nicht situationskonstant, sondern sie unterliegen selektiven Wahrnehmungsmechanismen. So leiten die Forschungshypothesen das Wahrnehmen. Nicht alle Wahrnehmungen können gespeichert werden, man übersieht etwas. Menschen haben unterschiedliche Beobachtungsgaben und können sich unterschiedlich konzentrieren. Geräte dagegen nehmen die Beobachtungen konstanter, wiederholbarer, also objektiver wahr. Die gespeicherte Beobachtung kann wiederholt vom Untersucher betrachtet werden. Doch Geräte nehmen nur das wahr, was von ihnen verlangt wird. Die Kamera kann nur das aufnehmen, das im Blickfeld des Objektives liegt. Geräte sind starr und unflexibel. Bemerkt ein Studienteilnehmer nicht, dass er beobachtet wird - z. B. durch heimliche Beobachtung, durch „versteckte Kameras“ - dann - und auch nur dann - kann sein Verhalten echt, d. h. unbeeinflusst registriert werden. Das sind allerdings ethisch zweifelhafte Methoden, die jedoch für die Erforschung von sozial-geächtetem Verhalten - wie z. B. der Kriminalforschung - notwendig erscheinen. Nur auf diesen Wegen können wahre Informationen zum Drogen- und Alkoholmissbrauch, aber auch über andere Formen „verbotenen“ Verhaltens, wie z. B. das heimliche Naschen bei Kindern, Übergewichtigen, Fresssüchtigen usw. erhoben werden. Jede Beobachtung, sogar Mitteilungen, dass innerhalb gewisser Zeiträume versteckte Beobachtungen durchgeführt werden, beeinflusst das Verhalten von Menschen. Besonders am Beginn einer Erhebung reagieren Menschen. Die Art der Abweichung kann ganz verschieden sein; Stichworte sollen dies andeuten: Unsicherheit, Gehemmtheit, Schauspiellust und Versuch des Erfüllens von Erwartungen. Offene Beobachtungen sind also im Gegensatz zu heimlichen Erfassungen reaktive Methoden. Je mehr die Beobachtung in das „normale Leben“ eingreift, desto reaktiver ist die Methode, desto deutlicher wird der Mess-Effekt, der HAWTHORNE-Effekt genannt wird. Die Reaktion wird in der Regel mit zunehmender Untersuchungsdauer schwächer; der Untersucher integriert sich quasi mit den Studienteilnehmern bzw. diese gewöhnen sich an die Untersuchungssituation. Solche Versuche, auf diese Weise möglichst nonreaktives Beobachten zu erreichen, erfordern Zeit und Geduld, d. h. die Feldaufenthalte sind lang und können sich über einige Monate bis einige Jahre erstrecken. Sie sind typisch für anthropologische Studien. Ein weiterer Nachteil ist, dass wegen des Aufwandes nur kleine Fallzahlen untersucht werden. Eine Gewähr für ein nonreaktives, objektives Erfassen gibt es trotzdem nicht; denn der Untersucher kann auf die Situation reagieren und sich von seiner Forscherrolle entfernen und zu einem Mitglied der Untersuchergruppe werden. Er ändert seine Beobachtungsperspektive (Guthe, Mead 1945; Wilson 1974).
Ein weiterer Versuch für möglichst nonreaktives Messen liegt in der Nutzung von Endpunkten von Handlungen. Das sind beispielsweise das Verwerten von schriftlichen Belegen, wie Briefe und Tagebücher, aber auch die Ergebnisse und Rückstände von Haushaltstätigkeiten. Mit dieser archäologischen Methode können aufgrund der Analyse der Speiseabfälle, Verpackungsmaterialien usw. Rückschlüsse auf das Ernährungsverhalten in den letzten Tagen gezogen werden (s. S. 183). Diese Informationen beziehen sich jedoch nur auf bestimmte Handlungsausschnitte und neigen folglich auch zur „Schiefe“. Beobachtungen haben einige Vorteile, sie geben viele Informationen über natürliche Handlungsabläufe.
Ein Problem taucht dabei auf, das als folgender Zielkonflikt beschrieben wird. Je breiter, je offener das Verhalten und die Handlungen von Menschen beobachtet werden, d. h. je weniger Hypothesen- und Theorie-geleitet die Methode ist, desto zufälliger, unkontrollierter, nicht-systematischer, qualitativer und „weicher“ werden die Ergebnisse. Die „Erinnerungsfilme“, die Beobachtungen, das Videoband usw. müssen ausgewertet werden; dabei können Ideen und Hypothesen geboren werden. Das Auffällige wird notiert; es muss kategorisiert und systematisiert werden. Je strukturierter, kontrollierter und quantitativer beobachtet wird, desto mehr von dem Gesamteindruck - dem vollständigen Bild - wird ausgeblendet; dafür wird die Methode „härter“, objektiver, vom Untersucher unabhängiger. Die Analyse kann leichter nachvollzogen und wiederholt werden. Den „weichen“ Gesamteindrücken und -erfahrungen stehen „harte“ Analysen nach strengen Vorgaben und Kriterien gegenüber, bei der eine Ess-Situation nach Details - wie Angaben über Ort, der Teilnehmer und deren Verhalten gemessen in Essgeschwindigkeit, Zahl der Kaubewegungen usw. - erfasst wird.
Einen Übergang zwischen der reinen, nichtteilnehmenden Beobachtung und der bewusst teilnehmenden Interaktion zwischen Untersucher und Studienteilnehmer stellen die Fragebogen- bzw. Interview- Methoden dar. Der Untersucher beteiligt sich hier in der Weise, dass er nach bestimmten Sachverhalten fragt (s. S. 223f). Auch hier gibt es wieder ein Kontinuum von relativ unstrukturierten, mehr Situations-bezogenen und -geleiteten Fragen zu den mehr streng Hypothese-geleiteten, strukturierten Fragebögen. Auf der einen Seite steht ein loser Gesprächsleitfaden, auf der anderen Seite die formalisierte, einseitige Kommunikation mit festen Fragen und Antwortvorgaben. Ein Interview ist eine mehr oder weniger geleitete und strukturierte Kommunikation zwischen dem Untersucher und dem Studienteilnehmer. Es stellt eine asymmetrische Kommunikation dar, denn die Initiative geht vom Untersucher aus, er führt die Dialog-Regie. Er gibt gewisse Stimuli bzw. Gesprächsinhalte und der Interviewte reagiert. Das Interview kann direkt mündlich erfolgen, wobei die Interviewsituation sehr unterschiedlich sein kann.
Es gibt ein direktes Gegenübersitzen zwischen den Akteuren am Ort der Handlung (z. B. Küche oder dem Speiseraum), an einem neutralen Ort, aber auch in den Arbeitsräumen der Forscher. Die Nähe des Handlungsortes hat den Vorteil, dass weitere situationsbezogene Informationen leicht mitzuerfassen sind; dem stehen Nachteile gegenüber, wie größerer Transportaufwand für den Untersucher und weniger standardisierte Interviewsituationen. Ein Interview kann auch telefonisch erfolgen. Das hat den Vorteil der schnellen Kontaktaufnahme, demgegenüber steht ein Selektionseffekt - denn nur wer ein Telefon hat, kann zum Studienteilnehmer werden. Außerdem können dabei die nicht-verbalen Reaktionen nicht erfasst werden, da die Befragten nicht gesehen werden, was einen nicht zu unterschätzenden Informationsverlust darstellen kann.
Interviews können auch schriftlich durchgeführt werden. Der Fragebogen kann dabei postalisch versandt werden. In anderen Untersuchungssituation können die Antworten in bestimmten Untersuchungsräumen - z. B. im „Wartezimmer“ - gegeben werden. Der Vorteil ist, dass der Untersucher wenig Zeit für das Interview aufbringen muss. Innerhalb kurzer Zeit können viele Fragebögen verteilt und beantwortet werden. Er muss allerdings Nachteile in Kauf nehmen, dass die Interviews wenig kontrolliert sind, und dass es höhere Ausfallquoten gibt. Heute werden Interviews auch mittels neuer IT-Medien durchgeführt.  Tragbare „Laptop“ Personal-Computer werden für EDV-gestützte Interviews eingesetzt. Die Antworten auf die auf einem Bildschirm sichtbaren Fragen werden direkt in das Gerät eingegeben und die Daten können so sehr schnell verarbeitet werden. Interviews können auch über das Medium Bildschirmtext erfolgen. Die Nachteile liegen hier bei den Kosten und den hohen Selektionseffekten (s.eSocialSciences)
Ein Interview kann recht frei geführt werden; außer dem Gesprächsbeginn hängt der Ablauf vor allem davon ab, was der Studienteilnehmer antwortet. Der Interviewer kann viel positive Zuwendungen ausstrahlen. Solche „weichen“ Interviews werden auch Tiefeninterviews genannt und orientieren sich an psychoanalytischen Gesprächen. Der Untersucher exploriert in nicht-direktiven und ungelenkten Interviews das Untersuchungsfeld. Hat der Forscher bereits einige konkrete Vorstellungen vom Untersuchungsgegenstand, hat er bestimmte für ihn wichtige Variablenbereiche identifiziert, dann wird das Interview strukturierter und gelenkter bzw. direktiver. Der Gesprächsablauf wird dann z. B. durch eine stichwortartige Themen- bzw. Variablenliste gelenkt. Es wird kontrolliert, ob im Laufe eines Gespräches alle „Themen“ abgehandelt wurden. In solchen gelenkten Interviews werden Gesprächsleitfaden benutzt. In zentrierten bzw. „focused“ Interviews liegt bereits eine „halbstandardisierte“ Interviewform vor, bei der für bestimmte Themen alternative Fragen vorbereitet werden.
Doch bei all diesen Interviewformen sind die Antwort-Möglichkeiten nicht vorgegeben, sondern offen. Es sind „offene Fragen“ (s. S. 224). So wird keine Information von vornherein ausgeschlossen. Es stellt sich später analog wie bei der Beobachtung (s. o.) das Problem der Analyse, der entsprechenden Kategorien-Bildung. Interviews können auch durch technische Hilfsmittel, die als Informationsspeicher dienen, unterstützt werden, das sind hier Tonträger und Film bzw. Video. In den Fällen, wo der Untersuchungsgegenstand so gut bekannt ist, dass im Prinzip alle möglichen Antworten bzw. Reaktionen auf die Fragen bzw. Reize von vornherein festgelegt werden können, sind strukturierte, alle Emotionen ausschließende, „harte“ Interviews von Vorteil. Es wird mit genauen Frage- bzw. Interviewanweisungen und Antwortvorgaben gearbeitet; das sind „geschlossene Fragen“. Die Antworten sind leicht weiterzuverarbeiten und zu verschlüsseln. Solche Fragebogen sind gut geeignet für EDV-gestützte Interviews (s. o.).
Die Interview-Methoden zeigen eine ganze Reihe von Problemen, die hier nur angedeutet werden können. Interviews sind Kommunikationen zwischen Menschen und sie sind mit allen bekannten Kommunikationsproblemen behaftet. Es gibt trotz intensiver methodischer Arbeiten keine allgemeingültigen schlüssigen Erkenntnisse, wie diese Probleme zu beseitigen sind. Das entspricht der komplexen Natur von menschlichem Verhalten. Der Interviewer ist der Sender von Reizen. Die Probleme beginnen damit, dass der Interviewte - der Empfänger - sie eventuell nicht wahrnimmt, sie falsch versteht. Der Interviewte muss reagieren, er überlegt, formuliert eine Antwort und sendet sie zurück. Somit wird der Forscher zum Empfänger, er muss wahrnehmen, verstehen, registrieren und reagieren. Es gibt eine Fülle von Kommunikations-Störmöglichkeiten. Kommunikation ist eingebunden in soziale Situationen. Der Untersucher hat eine ganz bestimmte soziale Position, er hat bestimmte Sichtweisen über die Situation, die er erforscht. Er versteht das ihm Nahestehende besser als Fremdes.
Interviews sind kulturgebundene Kommunikationen. Diese Form der Informationsbeschaffung entspricht unserer Lebenswelt. Wer gut Gespräche führen kann, wer gut lesen und schreiben kann, kann auch gut interviewt werden. Interviews sind Mittelschicht-orientiert. Randschichten nehmen seltener teil und geben auch häufiger falsche Antworten. Das trifft für die soziale Grund-, aber auch für die Oberschicht zu. Analphabeten können keine schriftlichen Interviews geben, verstehen auch häufig die Sprache der gehobenen Schichten nicht richtig. Oberschichten sind sich zu fein, ausfragen zu lassen.
Die Frage der Richtigkeit wird an anderer Stelle behandelt (s. Kap. 2.3.4.3.), doch es soll hier ein prinzipielles Problem von Interviews angeführt werden. Der Befragte neigt dazu, wenn er die Ziele der Studie kennt, erwünschte Antworten zu geben. Der Übergewichtige, der weiß, dass er nicht naschen soll, wird einem Ernährungsexperten dies auch nicht offenbaren. Der Forscher kann versuchen, die Studienziele zu verschleiern, und so die Gefahr vorgenannter Reaktionen zu verringern. Die Manipulation kann so weit gehen, dass bewusst Fehlinformationen über das Forschungsziel gegeben werden bzw. dass entsprechende ablenkende Fragen im Interview gestellt werden.
So kann ein Interview sogar in ein Feldexperiment übergehen. Es werden bestimmte Situationen bzw. komplexe Stimuli erzeugt und die entsprechenden Reaktionen darauf werden registriert. Bei solchen Experimenten können auch projektive Techniken bzw. Verfahren angewendet werden; diese entstammen der psychologischen Forschung. Sie könnten bei ernährungsepidemiologischen Studien auch benutzt werden, dies geschieht viel zu selten (Berger 1974; Esser 1986; N.N. 1981). Dabei handelt es sich um Assoziationstests - analog den klassischen „Tintenklecks“-Interpretationen im Rohrschach-Test. Dabei stellen Worte oder Gegenstände - wie z. B. Lebensmittel - den Stimulus und es werden die Gedanken bzw. Assoziationen, die den Studienteilnehmern dazu einfallen, ermittelt. In thematischen Apperzeptions-Tests wird gefordert, bestimmte Bilder zu interpretieren. Eine weitere Möglichkeit besteht in Nutzung der Komplettier- bzw. Ergänzungstechniken, bei denen die Studienteilnehmer unvollständige Sätze oder Geschichten weiterführen sollen bzw. leere Sprechblasen in „Comics“ ausfüllen. Ähnlich sind die Konstruktions-Teste, bei denen Gespräche bzw. Dialoge weiterzuführen sind. Im Feld können auch Experimente durchgeführt werden, diese werden im Bereich des Lebensmittelmarketings häufiger eingesetzt. Dabei wird z. B. die Wirkung von bestimmten Verkaufshilfen bzw. verschiedener Platzierung in Supermarkt-Regalen erfasst. Hier sind ähnliche Vorteile, wie sie bei den Interviews genannt sind, zu beobachten, z. B. die größere Informationsbreite einer natürlichen Umgebung. Es gibt allerdings auch ähnliche Nachteile, nämlich die schwierigere Kontrolle der Methode und die damit verbundene problematische Bewertung der Ergebnisse.
Labortests sind in dieser Hinsicht besser zu kontrollieren - im Marketingbereich werden sie Studio-Tests genannt. Die Sättigungseffekte bestimmter Mahlzeiten können im Labor sehr gut gemessen und miteinander verglichen werden. Hier bleibt das Problem der Übertragung der Ergebnisse in natürliche Alltagssituationen.
Interviews und Experimente können an individuellen Studienteilnehmern durchgeführt werden, es können auch Personengruppen dazu herangezogen werden. Bei Gruppeninterviews gibt es eine ähnliche methodische Streubreite mit ähnlichen Problembereichen, wie dies für Einzelinterviews aufgezeigt wurde. So gibt es freie, nichtteilnehmende Gruppengespräche bzw. deren Beobachtung auf der einen Seite, und projektive Techniken - wie z. B. Rollenspiele - und Experimente auf der anderen Seite.
Alle geschilderten Informations-orientierten Methoden im Bereich des menschlichen (Ernährungs-)Verhaltens zeigen ein Problem: Menschliches Verhalten ist im strengen Sinn grundsätzlich nicht wiederholbar und standardisierbar, diese Eigenschaften von Messungen gibt es nur in den „unbelebten“ Naturwissenschaften. Gleiches Handeln, gleiches Verhalten beim Essen bei den Untersuchungszeitpunkten T1 und T2 kann zwar äußerlich so erscheinen – z. B. auf einem Videoband sogar dokumentiert sein. Die bei den verschiedenen Zeitpunkten gültigen „inneren“ Werte sind jedoch verschieden. Zwischen T1 und T2 ist der Stoffwechsel weitergelaufen; die Menschen wurden älter, sie können anderes Wissen und mehr Erfahrungen haben usw.
Auch die Nahrung verändert sich mit der Zeit (Abb.23); sie ist biologischer Natur. Unbelebte Masse ist durch physikalische und chemische Kenngrößen zu standardisieren. Ein Diamant gilt als unvergänglich, das Urmeter als situationskonstant usw. Vergleichbare Aussagen sind bei Menschen bzw. generell für biologisches Material nicht möglich. Es gibt Versuche, einen Menschen-Standard zu definieren, bei denen zumeist durchschnittliche bzw. häufigst-verteilte Werte eingesetzt werden. Hierbei werden biologische Verteilungen relativ willkürlich zu Linien reduziert, aber selbst die sind nicht unvergänglich. Natur und Menschen machen Evolutionsprozesse durch, im Verlauf dieser Entwicklungen verändern sich Standardwerte des Menschen.

Der Mensch und sein Verhalten ist nicht in Naturkonstanten zu beschreiben und nicht allein mit solchen Größen auszudrücken. Beim menschlichen Verhalten gibt es Verhaltensbereiche, die nicht direkt zu beobachten sind, die nicht materieller Natur und trotzdem wirksam sind. Solche theoretischen Konstrukte sind z. B. die Einstellungen und Motive bezüglich dem (Ernährungs-)Verhalten. Sie sind indirekt aus Beobachtungen und Befragungen abzuleiten, selbst physiologische Messgrößen können auf sie hinweisen. Psychische Reaktionen und die Art der Einstellung beeinflussen physiologische Reaktion auf äußere Reize, wie z. B. die Reaktionen auf den Geruch von Speisen. Entsprechende Außenreize beeinflussen den Speichelfluss von Menschen und andere physiologisch-biochemische Messgrößen (Sjöström et al. 1980, Wooley, Wooley 1981). Auf ähnliche Weise sind frohe Erwartung, Angst, Anspannung, Aufmerksamkeit und viele weitere psychische Einstellungen durch physio-psychologische Messgrößen - wie „Angst“-Schweiß, Hautfeuchtigkeit, Pulsfrequenz usw. - abzuschätzen. Dies geschieht in der Regel in Laborsituationen - z. B. bei den Studiotests in der Markt- und Werbeforschung; sie können aber auch im Feld erfolgen, da durch den Fortschritt der Elektronik die notwendigen Messgeräte immer kleiner und unauffälliger werden. Solche Messgeräte sind auch für die Messung der körperlichen Aktivität in der Ernährungsepidemiologie von großem Wert (s. S. 180). Die physio-psychologichen Messungen stellen einen Übergang zu einem weiteren großen Informationsbereich der Ernährungsepidemiologie dar, nämlich zu dem der physiologischen Variablen des Ernährungs- und Gesundheitszustand (s. Kap. 3.3.-3.5.). Dieser ist zwar teilweise durch Beobachtung zugänglich. Menschen sehen gesund, aber auch krank aus. Sie können zu dick und zu dünn erscheinen. Es gibt bestimmte Vitaminmangelzeichen. Menschen können nach ihrem (Gesundheits-)Zustand befragt werden, denn sie diagnostizieren ihr Befinden selbst. Sie erinnern sich an frühere Erkrankungen und an die Ergebnisse früherer Diagnosen. Viele Menschen kennen ihr Köpergewicht, sowie ihre Cholesterin- und Blutdruckwerte. In diesen Variablenbereichen dominiert jedoch das Messen. Dabei erscheinen vordergründig genaue Messungen möglich zu sein; z. B. kann die Richtigkeit des Vitamin A Gehaltes im Blut genau überprüft werden. Die Labormethode muss geeicht werden, genau wie dies mit Waagen und anderen Messinstrumenten geschieht. Danach kommt jedoch erst die analoge Problemstufe, die bereits für das „Messen“ des menschlichen Handelns umrissen wurde. Der richtige biochemische Messwert soll in eine Aussage über einen bestimmten komplexeren Sachverhalt übertragen werden. Sie sind die Anzeiger für die Konstrukte, wie z. B. dem Vitamin A-Ernährungszustand. Hier müssen biologische Standards als Normen und Zielgröße erstellt und herangezogen werden, die es eben in dem strikten, deterministischen Sinn gar nicht gibt (s. Kap. 2.3.4.3.3.).

Schließlich bleibt noch ein weiterer Gesichtspunkt der Informations-orientierten Dimension zu beschreiben; das ist der Grad der Intensität der Informationssuche. Erste orientierende Studien werden meist Vor- oder Pilot-Studien genannt, sie wurden auch schon als Vortests und Lotsenstudien bezeichnet. Sie dienen im Prinzip der Sammlung von Erfahrungen für alle Aspekte einer normalen Studie; doch sie werden meist mit unterschiedlichen Schwerpunkten konzipiert und durchgeführt, wobei auf die Sachverhalte mehr geachtet wird, bei denen die Forscher noch unsicher sind. So können Hypothese-Bildungs-Alternativen überprüft werden; dann sind es Explorations- bzw. Leit-Studien. Es können die Messmethoden überprüft werden. Sie können einen praktischen Probelauf darstellen, der zeigen soll, ob alles in der Planung richtig durchdacht wurde. Ob die Studienteilnehmer in angenommener Weise mitmachen, ob das Untersucherpersonal richtig angeleitet wurde und ob die veranschlagten Mittel und Zeiten ausreichen werden. Dann sind dies Durchführbarkeits-Studien (feasibility studies). Den Vorstudien folgen die einmaligen Hauptstudien, die im Englischen „Survey“ genannt werden. Ernährungsepidemiologische Studien können jedoch auch als Verlaufsstudien geplant und durchgeführt werden. Eine regelmäßige Abfolge von Studien wird im Englischen „Surveillance“ genannt; hierbei gibt es deutliche Überschneidungen zu den Überwachungs- bzw. Monitor-Studien.

Datenbestandskatalog (Archiv) - link bei www.gesis.org   (GESIS)

- Datenreport 2018 -

Rat für Sozial- und WirtschaftsdatenRatSWD: Archivierung und Sekundärnutzung von Daten der qualitativen Sozialforschung fördern  - idw-Meldung -30.06.2015 _ Stellungnahme - download

- Archivierung von Daten - www.radar-service.eu - (FIZ, Karlsruhe)

-- www.deutschland-in-daten.de -  Dokumentation zum Zeitreihendatensatz für Deutschland, 1834-2012 - link - bei www.ssoar.info - Social Science Open Access Respiratoy

RICHFIELDS: Eine Datenplattform, um mehr über die Ernährungsgewohnheiten von Verbrauchern zu erfahren (EU-Projekt) www.richfields.eu   (EUFIC Food Today 04/2016)

Tenopir,C. et al.: Data Sharing by Scientists: Practices and Perceptions. PLOSone 29.06.2011
- Zeitschrift "Scientific Data"  "is an open-access, peer-reviewed publication for descriptions of scientifically valuable datasets. Our primary article-type, the Data Descriptor, is designed to make your data more discoverable, interpretable and reusable" (link)
Kühne, M., Meusel, D.: "Data Sharing" - Arbeitspapier TU Dresden; Philosophische Fakultät, 2015 (link)
"Data-Sharing" in der Wissenschaft. Ist "Open Data" nur ein Lippenbekenntnis - NZZ 22.07.2015 -

Reviews - Meta-Analysen

Barnard, N.D., Willett, W.C., Ding,E.L.: The Misuse of Meta-analysis in Nutrition Research. JAMA  318(15):1435-1436. doi:10.1001/jama.2017.12083 (17.10.2017) (z.B. durch Lebensmittelindustrie mit einseitiger interessen-geleiteter Interpretationen)