crazyhathello's picture
Upload folder using huggingface_hub
268b296 verified
resume: false
device: cuda
use_amp: false
seed: 100000
dataset_repo_id: hellorobotinc/kitchen_cabinet_diagonal
video_backend: pyav
training:
offline_steps: 200000
online_steps: 0
online_steps_between_rollouts: 1
online_sampling_ratio: 0.5
online_env_seed: ???
eval_freq: -1
log_freq: 250
save_checkpoint: true
save_freq: 10000
num_workers: 16
batch_size: 64
image_transforms:
enable: true
max_num_transforms: 3
random_order: false
brightness:
weight: 1
min_max:
- 0.8
- 1.2
contrast:
weight: 1
min_max:
- 0.8
- 1.2
saturation:
weight: 1
min_max:
- 0.5
- 1.5
hue:
weight: 1
min_max:
- -0.05
- 0.05
sharpness:
weight: 1
min_max:
- 0.8
- 1.2
grad_clip_norm: 10
lr: 0.0001
lr_scheduler: cosine
lr_warmup_steps: 500
adam_betas:
- 0.95
- 0.999
adam_eps: 1.0e-08
adam_weight_decay: 1.0e-06
delta_timestamps:
observation.images.gripper:
- -0.16666666666666666
- 0.0
observation.images.head:
- -0.16666666666666666
- 0.0
observation.state:
- -0.16666666666666666
- 0.0
action:
- -0.16666666666666666
- 0.0
- 0.16666666666666666
- 0.3333333333333333
- 0.5
- 0.6666666666666666
- 0.8333333333333334
- 1.0
- 1.1666666666666667
- 1.3333333333333333
- 1.5
- 1.6666666666666667
- 1.8333333333333333
- 2.0
- 2.1666666666666665
- 2.3333333333333335
drop_n_last_frames: 7
eval:
n_episodes: 50
batch_size: 50
use_async_envs: false
wandb:
enable: true
disable_artifact: true
project: diffusion-kitchen-diagonal
notes: no depth
fps: 6
env:
name: stretch_real
task: stretch_baseX
state_dim: 9
action_dim: 9
fps: ${fps}
episode_length: 400
gym:
fps: ${fps}
repo_version: main
override_dataset_stats:
observation.images.gripper:
mean:
- - - 0.485
- - - 0.456
- - - 0.406
std:
- - - 0.229
- - - 0.224
- - - 0.225
observation.images.head:
mean:
- - - 0.485
- - - 0.456
- - - 0.406
std:
- - - 0.229
- - - 0.224
- - - 0.225
policy:
name: diffusion
n_obs_steps: 2
horizon: 16
n_action_steps: 8
input_shapes:
observation.images.gripper:
- 3
- 320
- 320
observation.images.head:
- 3
- 320
- 320
observation.state:
- ${env.state_dim}
output_shapes:
action:
- ${env.action_dim}
input_normalization_modes:
observation.images.gripper: mean_std
observation.images.head: mean_std
observation.state: min_max
output_normalization_modes:
action: min_max
vision_backbone: resnet18
crop_shape:
- 320
- 320
crop_is_random: false
pretrained_backbone_weights: null
use_group_norm: true
spatial_softmax_num_keypoints: 32
down_dims:
- 512
- 1024
- 2048
kernel_size: 5
n_groups: 8
diffusion_step_embed_dim: 128
use_film_scale_modulation: true
noise_scheduler_type: DDPM
num_train_timesteps: 100
beta_schedule: squaredcos_cap_v2
beta_start: 0.0001
beta_end: 0.02
prediction_type: epsilon
clip_sample: true
clip_sample_range: 1.0
num_inference_steps: 100
do_mask_loss_for_padding: false