Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Change layerwise to layerwise_params #1210

Merged
merged 2 commits into from May 16, 2021
Merged
Show file tree
Hide file tree
Changes from all commits
Commits
File filter

Filter by extension

Filter by extension

Conversations
Failed to load comments.
Jump to
Jump to file
Failed to load files.
Diff view
Diff view
4 changes: 3 additions & 1 deletion examples/configs/config-description-eng.yml
Expand Up @@ -51,6 +51,8 @@ stages: # REQUIRED KEYWORD, dictionary of all stages of Catalyst, for training
batch_size: 1 # KEYWORD, batch size for all the stages
num_workers: 1 # KEYWORD, Number of parallel processes for DataLoader
drop_last: False # KEYWORD, parameter for DataLoader (Default is False)
loaders_params: # KEYWORD, dict with additional loaders parameters. Also can do it for Sampler by dict with name samplers_params
persistent_workers: True # KEYWORD, parameter example. Full list of parameters you can find in torch.utils.data.DataLoader documentation
per_gpu_scaling: False # KEYWORD, if True it increases the batch size and the number of workers in proportion to the number of GPUs (for distributed increases only batch_size)

# kwargs for `runner.get_datasets(...)` for this stage
Expand All @@ -66,7 +68,7 @@ stages: # REQUIRED KEYWORD, dictionary of all stages of Catalyst, for training

optimizer: # REQUIRED KEYWORD, parameters for the optimizer
_key_value: False # OPTIONAL KEYWORD, if True, there may be several optimizers and then they should be wrapped in key-value
layerwise: # OPTIONAL KEYWORD, optimizer parameters for different network layers, optional
layerwise_params: # OPTIONAL KEYWORD, optimizer parameters for different network layers, optional
conv1.*: # regexp with layer name
lr: 0.001
weight_decay: 0.0003
Expand Down
4 changes: 3 additions & 1 deletion examples/configs/config-description-rus.yml
Expand Up @@ -42,6 +42,8 @@ stages: # REQUIRED KEYWORD, словарь всех стадий Catalyst, дл
batch_size: 1 # KEYWORD, размер батча для всех стейджей
num_workers: 1 # KEYWORD, количество параллельных процессов для DataLoader
drop_last: False # KEYWORD, параметр для DataLoader (по умолчанию False)
loaders_params: # KEYWORD, словарь с дополнительными параметры для DataLoader. Аналогичным образом можно передавать параметры в Sampler через словарь samplers_params
persistent_workers: True # KEYWORD, пример параметра. Полный список допустимых параметров можно найти в документации к torch.utils.data.DataLoader
per_gpu_scaling: False # KEYWORD, если True, то увеличивает батчсайз и количество воркеров пропорционально количиству видеокарт (для distributed увеличивает только батчсайз)

# kwargs для `runner.get_datasets(...)` в этом стейдже
Expand All @@ -56,7 +58,7 @@ stages: # REQUIRED KEYWORD, словарь всех стадий Catalyst, дл

optimizer: # REQUIRED KEYWORD, параметры для оптимизатора
_key_value: False # KEYWORD, если True, то оптимизаторов может быть несколько и тогда их нужно обернуть еще в key-value
layerwise: # KEYWORD, параметры оптимайзера для разных слоев сети, опционально
layerwise_params: # KEYWORD, параметры оптимайзера для разных слоев сети, опционально
conv1.*: # регулярное выражение с именем слоя
lr: 0.001
weight_decay: 0.0003
Expand Down