2020/10/11週報

  1. 對 miniimageNet 進行了訓練,在普通的 4 層 CNN 以 5-ways 5-shot 的數據進行訓練,得到的結果如下:
    在這裏插入圖片描述
    準確率大致停留在 60% 左右。
  2. 完成了ISIC的數據處理部分代碼的編寫
  3. 對元學習的兩個較爲經典的算法 MAML 和 reptile 進行了學習.
    a. MAML 主要是在忽略二階偏微分,以一階微分來計算初始的模型參數。MAML和 pre-training 是不同的。MAML 更加在意的總損失最小,即其他任務到達較好的representation所迭代的次數較少。而 pre-training 需要的直接是 representation 較好。
    b. reptile 算法:MAML算法的內循環只迭代一次就計算損失,而reptile相當於在 MAML的基礎上,使內循環多迭代了幾次。
    c. ARUBA 爲迭代時的內循環和外循環定義了學習率的變化策略。
  4. 任務的確定,到底以那些數據爲輸入,哪些數據爲輸出?