visualizingjp commited on
Commit
ad7bb0b
·
verified ·
1 Parent(s): e96e6ad

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +3 -5
app.py CHANGED
@@ -105,12 +105,10 @@ with gr.Blocks(css=css, theme=gr.themes.Base()) as demo:
105
  with gr.Row():
106
  with gr.Column(elem_id="col-input-container"):
107
  gr.Markdown(f"""
108
- *A framework for training any-to-any multimodal foundation models. Scalable. Open-sourced. Across tens of modalities and tasks.*
109
-
110
  [`Website`](https://4m.epfl.ch) | [`GitHub`](https://github.com/apple/ml-4m) <br>[`4M Paper (NeurIPS'23)`](https://arxiv.org/abs/2312.06647) | [`4M-21 Paper (arXiv'24)`](https://arxiv.org/abs/2406.09406)
111
-
112
- This demo predicts all modalities from a given RGB input, using [{FM_MODEL_ID}](https://huggingface.co/{FM_MODEL_ID}), running on *{power_device}*.
113
- For more generative any-to-any examples, please see our [GitHub repo](https://github.com/apple/ml-4m#generation).
114
  """)
115
 
116
  img_path = gr.Image(label='RGB input image', type='filepath')
 
105
  with gr.Row():
106
  with gr.Column(elem_id="col-input-container"):
107
  gr.Markdown(f"""
108
+ *any-to-any に対応するマルチモーダル基盤モデルをトレーニングするためのフレームワーク。スケーラブル。オープンソース。数十のモダリティとタスクに対応。*
 
109
  [`Website`](https://4m.epfl.ch) | [`GitHub`](https://github.com/apple/ml-4m) <br>[`4M Paper (NeurIPS'23)`](https://arxiv.org/abs/2312.06647) | [`4M-21 Paper (arXiv'24)`](https://arxiv.org/abs/2406.09406)
110
+ このデモは、[{FM_MODEL_ID}](https://huggingface.co/{FM_MODEL_ID}) を使用して、*{power_device}* 上で実行され、指定された RGB 入力からすべてのモダリティを予測します。
111
+ その他の生成的な any-to-any の例については、[GitHub リポジトリ](https://github.com/apple/ml-4m#generation) をご覧ください。
 
112
  """)
113
 
114
  img_path = gr.Image(label='RGB input image', type='filepath')