Die Herkunft der weißen Amerikaner
Aus welchen Ländern stammen die weißen Amerikaner ursprünglich? Die Vereinigten Staaten von Amerika waren einst das Land der Ureinwohner, der Indianer. Erst später kamen Europäer in das Gebiet und "entdeckten" es. Unter der britischen Flagge segelte ein Italiener dorthin. Daraufhin folgten Engländer und Franzosen. …