ziemia co to znaczy

Definicja ZIEMIA w historii Polski: część państwie z jakimś grodem centralnym (na przykład ziemia

Definicja ZIEMIA

Co to znaczy ZIEMIA: termin o zmiennym znaczeniu: we wczesnym średniowieczu część państwie z jakimś grodem centralnym (na przykład ziemia krakowska); w okresie rozbicia dzielnicowego terminem tym określano poszczególne dzielnice; od XIV w. dzielnice posiadające pełne urzędy ziemskie z wojewodą przekształciły się w województwa, a te ich pozbawione nadal nazywano ziemiami; termin stosowany również dla określenia terenów przyłączanych do Polski.

Czym jest ZIEMIA znaczenie w Słownik definicji Z .