10 Jahre Wikipedia für Kinder 🎉 Glückwünsche der Tagesschau ❤️ Bitte um Spenden

Kolonie

Aus Klexikon – das Kinderlexikon
Version vom 26. Mai 2015, 21:58 Uhr von Michael Schulte (Diskussion | Beiträge) (Textersetzung - „Neuzeit“ durch „Neuzeit“)
Auch in Deutschland isst man gerne Bananen: Ein Foto aus dem Jahr 1912, als Kamerun eine deutsche Kolonie war. Vorn im Bild steht ein deutscher Beamter, der aufpasst, wie Afrikaner Bananen auf ein Schiff laden.

Das Wort Kolonie kommt aus dem Lateinischen und hat mit der Landwirtschaft zu tun. Gemeint kann damit sein, dass Einwohner aus einer Stadt oder einem Land sich woanders niedergelassen haben. So eine Siedlung ist dann die Kolonie. Vor allem denkt man bei „Kolonie“ daran, dass ein Land sich ein fremdes Gebiet erobert hat. Die Menschen in dem fremden Gebiet, der Kolonie, mussten für die Eroberer arbeiten. Wenn Länder so etwas machen, nennt man es Kolonialismus.

Im Altertum haben einige Phönizier und Griechen ihre Heimat verlassen und neue Städte gegründet, Tochterstädte. Die Einwohner der neuen Städte konnten zwar selbst über alles bestimmen. Aber sie sprachen dieselbe Sprache wie die Mutterstädte und tauschten mit ihnen Waren aus.

In der [[Neuzeit]], also seit ungefährt dem Jahr 1500, haben Länder aus Europa sich neues Land gekauft oder es mit Gewalt erobert. Beispielsweise sind Seefahrer aus Portugal mit Schiffen um Afrika gefahren. An einigen Orten haben sie eigene Städte und Festungen gegründet, damit ihre Schiffe dort sicher halten konnten.

Andere Länder mit vielen Kolonien waren Spanien, Frankreich und Großbritannien. Seit dem 19. Jahrhundert haben fast alle Länder aus Westeuropa und Japan Kolonien gehabt. Um das Jahr 1900 waren die Länder in Südamerika schon frei geworden. Aber fast ganz Afrika und ein großter Teil von Asien bestand aus Kolonien der Europäer.

Im Laufe des 20. Jahrhunderts sind fast alle Kolonien unabhängig geworden, dass heißt, es sind Länder geworden, die bei sich selbst das Sagen haben. Allerdings sind sie oft arm geblieben und werden Entwicklungsländer oder Dritte Welt genannt. Auch wenn die Zeit des Kolonialismus vorbei ist: Die reichen Länder im Norden der Erde haben immer noch viel Macht und können beim Handel mit dem Süden vieles bestimmen.

Vorlage:Mehr

HALLO, liebes Klexikon!