MidJourney
資源懶人包
🔗【官方活動】UPCOMING EVENTS
每周四 04:00-07:00AM (TW) Office Hours with David
🔗【過去活動】Past Events
2022.7.16 06:00-10:15 AM (TW) Art Talk with Peter Mohrbacher
認識主講藝術家(官網)➨ https://vandalhigh.com/
活動已結束(看影片)➨ https://www.twitch.tv/petemohrbacher
🔗【官方公告】Official Announcements 🚀
MJ【官方公告2023/3/10 08:57】
https://www.midjourney.com/rate/pairs/v5-one-similar/
同昨日公告之辦法,今日請點評這邊這些圖片,以利進入發行階段。
MJ【官方公告2023/3/9 08:26】
大家好,我們即將發佈下一代的圖像生成系統!在我們發佈前,需要各位的協助。
如果您是 MJ 付費會員,請訪問以下 URL 並幫助我們對圖片進行評分
https://midjourney.com/rate/pairs/v5-one-staging/
評分指引:
- 一次會顯示兩張圖片
- 請選擇你更喜歡的(請根據你個人的審美品味選擇即可)
- 透過手機設備上評分的體驗較優
- 在桌機上,您可以使用數字1和2鍵來選擇圖像(1=左圖,2=右圖)
- 如果您看到 NSFW 不適宜圖片,請直接選另一張圖片或按“跳過”(抱歉!)
需留意的部分:
- 這些圖像並不代表我們即將發佈的 V5 演算法
- 這些圖像雖然看似平淡/乏味/不拘一格,但卻是足以幫助系統“判斷”v5 是否應該具有與 v4 不同的風格
- 如果對本次評論的質量有疑慮,你可以透過下方連結對比 前v4評分時 具有更高的分辨率並且通常具有更好的細節和風格範圍
- 如果您擔心質量問題,請查看 pre-v4 評分活動時的圖像作為與現今版本的對比 https://www.midjourney.com/rate/aazto/
本次這些評分十分關鍵,請盡力為我們提供良好的數據。
如果您認為任何圖像很酷,請隨時分享於 #rating-party
謝謝大家! ❤️ ❤️ ❤️
NIJI【官方公告2023/02/26 07:43】
大家好!我們啟動了一個實驗性的投票機制來改進niji!十分期待各位的參與!
到目前為止,各位在niji上看到的,均是經由一群敬業的藝術家和科學家所精心微調的結果。而niji・journey項目的下一階段,我們將好奇於niji 與各位用戶攜手合作後會是什麼樣子!
為此,你們可以透過投票,選出您認為好看的圖片來幫助我們提高niji的質量。
投票期間為2023/2/25至2023/3/25止。 請點此連結進行投票:
https://www.nijijourney.com/rate/anime-3
以下是一些簡單的說明:
- 請幫助我們針對逼真(似照片)的圖像,投下投反對票(即使它很漂亮)
- 請幫助我們把非動漫的圖片,投下反對票(即使它很漂亮)
- 請幫助我們針對稀有題材投下一票。比如說是niji一般不太會畫的東西(即使你有一段時日沒有使用niji,也無須擔心這個部分)
- 請按照你真實的想法投票,無須受到他人票選或喜好的影響
各位的評分將對niji未來的發展產生很大的影響。我們期待與您一起踏上這段旅程!
NIJI【官方公告 2023.02.11 04:22】
嘿!大家好! 很榮幸宣佈屬於我們的第一場#nijijourney比賽!
本次的主題是情人節,有三個類別可供選擇,還有機會贏取免費Fast Hour及discord nitro 等獎品!
如想參與,請趕緊至官方推特上,根據下方每個類別下,分享您的圖片並不要忘了回覆推文時,要同時加標記 #nijijourney 唷!
類別如下:
- 理想的約會地點
https://twitter.com/nijijourney/status/1624134742399455233
- 看起來會花很多精力為你製作自製巧克力的人
https://twitter.com/nijijourney/status/1624134767485628418
- 情人節如何善待自己
https://twitter.com/nijijourney/status/1624134794446512130
規則很簡單,如下:
- 沒有 NSFW
- 圖片必須通過#nijijourney 製作,且不得以任何形式進行後製、編輯或更改。
- 每個人最多僅可以為每個類別提交一張作品(所以總參賽上限張數為 3 張)
- 不允許使用有版權保護的角色
最後,每個類別將產生 3 名獲獎者,獎品為:
第一名 50 美元 5小時Fast Hour和 Nitro 3個月
第二名 25 美元 2小時 Fast Hour和 Nitro 2個月
第三名 10 美元 1 小時Fast Hour和 Nitro 1個月
祝大家好運! 活動將於2月17日截止,並在之後的某個時間宣布獲獎者!
MJ【官方公告 2023.02.07 16:03】
大家好,我們聽說有些人在使用最新更新版本時遇到一些問題。如果你想用先前的版本,在提示後輸入 --style 4b 即可。
請注意:在舊模型 --style 4a 和 --style 4b 中,您將無法使用超寬長寬比(而目前系統的默認值為 --style 4c)
大家不妨切換各版本試用比較,也歡迎各位隨時跳可到#micro-polls,告訴我們您最喜歡哪一個,或者隨時於#feedback留下您的反饋及想法。
題外話,目前對於再改進這些模組的部分,我們並沒有任何切確的想法。因此我們後續可能會直接專注於我們於 V5 的開發,並在預期於未來幾週內推動它。
希望每個人都玩得開心! ❤️
📌【金玲老師碎碎念】📌
4a = v4.0 美學,4b = v4.1,4c = 默認值
使用上,從 4a 到 4b,塗層較易漸暈、整體會變暗和對比度明顯增加。構圖上更緊湊但創意度降低。我覺得4c偏向兩者的中間值。
--ar 2:3 --test --creative
Original
manga anime style --style 20000
REMIX MODE
--v 3
REMIX MODE
1:1
1:1
1:1
Reiko#6665
IMAGE CREDIT:
Ancient Chaos#7830
2:3 ASPECT RATIO
--quality 1
--quality 2
--quality 5
🔗【舊公告】Old Announcements
【官方公告 2023.02.02 12:51】
大家好,我們今晚會測試 v4 的新版本。重點是針對非正方形的長寬(縱橫比)。
📌模組改善部分
- 將最大寬高比增加到 2:1 或 1:2(橫向和縱向、適用於風景圖和肖像圖)
- 支持從正方形到 2:1 的任何長寬比(但它會四捨五入到可被 32 整除的解析度)
- 改進了大幅長寬比圖像的構圖和質量
- 以上這些更改均適用於 --version 4 和 --niji
📌已知的問題
- 重新再次重製於今天更新之前所創建的非正方形作品,可預期存在一些問題
📌如何製作非正方形圖像?
- 您可以使用 --ar 參數指定非正方形縱橫比,例如 --ar 16:9 或 --ar 1:2
我們希望您能從這個模組的更新版本中獲得樂趣!歡迎大家於v4-showcase上分享作品或反饋的你的想法。
【官方公告2022.11.05 14:14】
嗨 @everyone ,我們今天將嘗試針對我們的 V4 演算法版本進行α測試。
要啟用它,請在關鍵字提示後方輸入 --v 4 或從 /settings 中選擇“V4”即可。
V4 基本模型帶來什麼新功能?
- 更多廣泛的知識(針對生物、地點等等)
- 更善於處理微小細節(在絕大部分的情況下)
- 更能駕馭並處理複雜的關鍵字提示(給予更多層級的細節)
- 更適合多物品/多角色場景
- 支持圖像提示和多方提示等高階關鍵字用法
- 支持--chaos 演算法(參數設置從0到100),可控制讓四小格的圖示更多樣化
V4 上的生採樣(質插數位訊號的處理)(效果有什麼差異?
- 新的生採樣會在原始圖像中添加/更改/校正細節(更像 v3 版本上的放大效果)
- 新的生採樣目前仍處於初階進行微調中的版本(未來它仍會持續演變)
我們還在做什麼強化?
- 我們將提高放大後的解析度、質量和可控性
- 我們將再添加自定義的縱橫比(目前長寬比限制為 1:1)
- 我們將繼續提高圖像清晰度並減少偶發的圖像壓縮變形情況
- 大大減少文字的偽影(某些提示在圖像上會轉變成無法閱讀的文字)
- 我們將改進默認風格樣式
請注意:這僅是一個 α 測試版本。請不要過度依賴 V4 中的任何特定屬性或一致性。隨著我們走向全面發布,我們將持續推動重大改變。
社群使用規範標準:
- 這個模組可以生成超逼真的作品,比我們過往所發佈的版本還要寫實。
- 因此,從現在開始,我們將更加嚴格地要求各位遵守“別當混蛋或創造一些會引起爭議的圖像”的這項規則。
關於 V4 的更多信息:V4 是建構在一個全新的代碼庫和全新的AI架構之下。這是我們在新的 Midjourney AI 超集群上訓練的第一個模型,且已經為此籌備了 9 個月之久。 V4 不是我們的最後一步,而是我們的第一步。我們希望你們都能感受到這是一個深刻而深不可測的新開始。
請帶著喜悅、驚奇、責任和尊重來使用這些不可思議的力量。
我們真的很期待看到每個人都創造了些什麼。
祝玩得開心! ❤️
【官方公告2022.11.05 14:14】
請記住,使用 V4 進行關鍵字提示時,它的用法不同於過去 V2/V3/test/testp版本。畢竟這是一套全新的系統,因此您們可能需要嘗試新的技巧!
歡迎大家在社群中的 #prompt-chat與大家聊聊,並隨時在 v4-showcase 畫廊上展現你的作品。
【2022.10.12 05:35 官方公告】
嘿大家好,我們今天有一些公告事項:
1) Midjourney 機器人現在可以被邀請到 Discord 上的任何服務器!不再有任何成員數量限制,所以現在即使是 Discord 上最大的服務器現在也可以使用 MJ。過去的限制是三萬人。
相關說明,請查閱此處:https://midjourney.gitbook.io/docs/use-midjourney-on-your-own-discord-server
2) 介紹REMIX(混合)功能
- 您現在可以透過點選 /settings 下的“REMIX MODE”將VARIATION切換至“混合”作業模式。混合作業類似於變化,只是您現在可以將關鍵字提示和設置更改為您想要的任何內容。
- 您可以更改關鍵字提示內文,並將場景“推進”至不同的風格
- 您可以透過它在版本之間進行轉換。添加類似 --test --creative (等同remaster”重製功能”),或是在 testp 圖像上執行 --version 3 將是“demaster”(正如同各位所要要的”反重製功能”)
請注意:這是一項實驗性功能,我們將根據反饋和技術的改進,隨著時間的推移對其進行更改。請不要指望它會在第一天成為一顆神奇的子彈(意指為可以直接命中你所想要的圖樣),它會以自己獨特的方式呈現,同時可能讓各位愉悅的同時也對作品變得更加挑剔。
為此,我們另外開通了一個名為 #remix 的新頻道,來歡迎各位展示你們製作的作品。
3) 自定義演算法又回來了,並得到了改進!你們現在可以使用其他人的關鍵字提示,且無需先設置他們的自定義選項。有關如何使用自定義參數的說明,請參考這邊:https://midjourney.gitbook.io/docs/user-manual#prompt-preferences-and-settings
希望你們都喜歡這些新變化,並感謝你們成為我們社群的一員❤️
啊~45天就這麼過去了😅 你也可以在這裡幫忙轉推(只是為了讓Twitter上的朋友們們記住我們還活著)https://twitter.com/midjourney/status/1579948680462729216
【官方公告 2022/9/21 04:23】
嘿!大家好!我們今天要宣佈兩項實驗:
【無縫(痕)紋理】
- 現在你們可以在提示後方添加 --tile 來生成無縫紋理(這意味著如果您將圖像用作類瓷磚重疊時,圖像會重複)
- 我們在看到 --test 和 --testp 下會得到最佳的結果。但它應該適用於所有的演算法和創作過程(v1、v2、v3、UPSCALE、VARIATION等)
- 我們未來將在為這功能添加一個“網頁預覽”按鈕,但目前你們可以嘗試於 https://www.pycheung.com/checker/ 等網站上測試它的紋理效果
- 不過偶爾可能仍會看到一些接縫,不好意思!請隨時反饋我們觸發的條件為何,以便我們將來將這些用於我們的測試中。
【新論壇功能】
- 我們正在測試一個名為“論壇頻道”(Forum Channels)的新Discord功能。它能適用於多主題異步通信機制。
- 去 prompt-craft(用於討論如何製作圖像)和 image-jams(用於在特定主題下一起共享圖像)看看它們吧!
以上新功能,請於反饋中讓我們知道您的想法,希望大家玩得開心!
【金玲老師補充說明】
無縫紋理檢查器 à https://www.pycheung.com/checker/
測試和檢查無縫紋理的快速工具
將圖像文件檔案拖放到網頁頁面中的任意位置即可看到成效
(橫幅可拉)調整你要的瓷磚寬度唷!
【官方公告 2022.08.31 05:15】
嘿各位,我們今天再次把我們的機器人支援擴展到第三方服務器上囉。現在,Midjourney 機器人可以在多達 30,000 人的任何伺服器上運行。
像往常一樣,歡迎轉發唷(讓擁有三萬用戶的伺服器的人都知道 :D)
https://twitter.com/midjourney/status/1564723472705544192
再次提醒一下,你可以透過下方連結了解如何將機器人邀請到你所在的服務器:
https://midjourney.gitbook.io/docs/use-midjourney-on-your-own-discord-server
【官方公告 2022.08.31 07:48】
嘿大家好,又是時候來測試一個新功能了!
[ 介紹 REMASTER 功能 ]
- 我們想嘗試讓大家“重製”過去於套用 v1/v2/v3的成品圖。透過這功能你,可以將 --test 演算法的連貫性沿用在舊圖上。
- 在所有新的UPSCALED作業下方(test/testp不適用),你會看到一個REMASTER (重製) 按鈕
- 您可以使用 /show jobID 重新製作您過去所做的任何高解析度圖檔(您可以透圖庫並點擊圖像選項下的copy jobid來獲取任何作業ID。
[ 限制 ]
- 僅支援於橫綜比 2:3 或 3:2 的寬高
- 多重關鍵字可能會有點奇趣。暫不支援圖像提示,抱歉喔!
這是一個瘋狂的實驗性功能,我們不知道我們是否會一直保留它。但至目前的測驗結果來看,我們發現它真的很有趣。
可於 #test-feedback中反饋你們的想法。
開算!
【官方公告 2022.08.31 08:59】
大家好,只是為了給你們一個關於 --test/testp 使用期限上的更新。
我們將暫時保留它。但我們計劃在明天晚些時候或後天的某個時間更改它。
新一版的使用體驗上可望有更進一步改進。
【官方公告 2022.8.29 10:53】
嘿大家好,我們將嘗試對--test讓大家透過新的圖像製作系統進行嘗試。
*該測試將持續 24 到 48 小時(取決於使用者行為和各版主反饋)。*
該測試中,我們嘗試了將美學和連貫性整合在一個系統中。
目前有兩種模式:
1)使用通用的藝術模式,你可以用--test
2)使用照片寫真模式,你可以使用--testp
這兩個模式的設置都可以通過 /settings 面板進行切換
我們仍在努力弄清楚這套系統擁有多廣泛的創造性。
- 如果你想讓它更富有創意性,不妨在你的關鍵字後方打上 --creative
- 到目前為止,我們的MOD及GUIDE更偏好照片模式帶來的較少創作力,至於廣泛使用上,甚至意見上是分裂的。
(就我個人而言,我喜歡 --creative,但它肯定讓作品整體上有點混亂)
我們已經啟用了風格化參數來讓作品呈現更多的“共鳴”感。該參數最小值為 --stylize 1250,最大值為 --stylize 5000(而默認預設值為 2500)
已知限制:
- 該模式不支援多樣關鍵字或圖像提示
- 支援的最大AR寬高比為3:2或2:3
- 每組關鍵字只能製作兩個正方形圖像或一個非方形圖像
- 關鍵字提示於例句方,可能比後面的單詞更重要
- 系統有時可能會更加地鎖定名詞而不是形容詞
請期待我們在接下來的幾周內,再定期更改模型。我們正計劃進行更多重大的改變。
玩得盡興!並在#test-feedback 反饋你們的想法,也可以在#test-showcase 中分享你們這次測試後的作品。
謝謝! ❤️
【新配置 2022.08.23 02:36】
- 推出關鍵字語法分析的新系統。同時也進行了一些改善。現在應該可以於圖像PROMPT後方使用 :: 下權重了!
- 新功能,請另外留意公告。
【公告 2022.08.23 06:46】
嗨大家好,我們今天正在測試一個新模型!
若要啟用它,請在關鍵字後方輸入 --beta 或透過 /settings 然後點選“MJ Beta”切換啟用。
關於此BETA模型的重要相關訊息
- 這個模型比V3版本座擁更多的知識和連貫性
- 風格部分更多樣化,但針對關鍵字的理解同時也會變得更“字面”些
- 如果你得到的出圖是方形的,那你就會得到2張;但如果是非方形的,你只會得到1張
- 現在最大縱橫比是 3:2 或 2:3
- 切換此BETA模式時,也會同時將 --upbeta 設為默認模式(此版本的圖片默認放大解析度為 2048 x 2048)
- 此設置適用於 /relax 放鬆模式下使用
- 此設置與 --hd --stylize 或 --q 並不兼容
- 目前使用圖像下PROMPT時,如沒有搭配文字的關鍵字將無法使用
請注意,該版本為“測試”模式,未來幾周內仍可能會快速發生變化。
我們希望您喜歡此模型,願它給你們最前沿的使用體驗。
祝大家玩得開心,也歡迎反饋你們的想法! ❤️
【公告 2022.08.23 06:57】
針對想要發佈--beta 圖片的用戶,我們剛剛開設了一個 #beta-showcase 頻道串。同時希望大家不要忘記在#feedback中透過文字留下更詳細的反饋及建議。
【市調2022.08.23 08:31/10:13】*大家記得到#micro-polls投票*
Q: 您希望如何改進 --beta?
下方請挑選出3個選項作為答案
1)我還沒試過
2)更多種類
3)更好運用色彩
4) 更多細節
5) 更好的構圖
6)更多的沙礫/垃圾
7)呈現更多的隱喻/即更少的字面轉換的意思
8)更具美感/氛圍感
--------------------
您將如何形容 Midjourney 中您最喜歡的美學和氛圍?
請在#feedback中寫下你的想法並 @DavidH 讓我知道。
【公告 2022.08.23 15:54】
嘿大家好,我們已經陸續收到你們對於--beta 模板的反饋。也希望透過你們的協助使其更具氛圍和美麗。為此,我們要麻煩各位做兩件事:
1) 至我們的官網並儘可能在多評價那些beta圖像(評價標準請基於您是否喜歡該美學或氛圍)https://www.midjourney.com/app/ranking/others/week/ (如果你無意間看到裸露的影像請記得點選作嘔的符號。謝謝!)
2) 點下方連結,並協助列出您認為“理想”地敘述了屬於MJ的氛圍和美學的形容詞。https://o9q981dirmk.typeform.com/to/I4pg29I2
明天,我們將針對排名前一千位評比達人們,提供免費的GPU時間。請盡量如實的,點下你們評價!每個人的都能餐與唷❤️
PS:別擔心我們不會帶走 V3版本。我們不知道創造力和連貫性之間是否存在基本面的平衡點,但我們希望各位能幫助我們找出答案。在理想的狀態下,我們當然希望擁有一套兩全其美的系統,或者能夠透過一個滑快模組來解決融合特定極端的情況。但假若我們無法做到這一點,我們將選擇分離這兩個要素,並開發兩個獨立的模組。同時開發兩者是沒問題的。
【官方公告 2022.08.19 23:45】
嗨大家好,我們想宣佈我們今天正在測試一個新的圖像放大處理器。
您可以這樣輸入--upbeta啟用他 或透過 /settings 然後點選“Beta upscale”來使用它。
關於 --upbeta 的重要信息
- 解析度非常高(比目前的“MAX UPSCALE”高 50%)
- 它仍可於放鬆模式下使用
- 它會盡可能得維持貼近原始圖像
- 畫質感較乾淨、光滑、細膩
- 它不會修復原始圖像中的缺陷(低解析度時所造成的的眼睛缺陷,在您放大後依舊維持原貌)
- 它不會添加不必要的細節如雜光雜點雜色雜質等(如果你想要的話,你必須用另外貼加關鍵字於你的PROMPT裡)
- 目前仍有些許圖像它無法很完善地處理(如:卡通/照片)
- 但仍有許多圖像是它擅長並可能會讓你驚嘆的(如:風景、繪畫、鉛筆畫)
我們希望您喜歡處於技術的最前端,所以我們希望您可以透過使用這個新的圖像放大處理器製作出一些漂亮的桌布成品圖像。
歡迎向我們展示您製作的新作品,並隨時提供反饋。
謝謝! ❤️
另外這兩天#micro-polls也有陸續添加新的”民調”。請大家盡快去回答。官方有意將目前每周三的舉辦的線上座談會分成兩場小的。所以請大家踴躍投票,爭取能夠周六場次是我們的時段0900-1200(目前票數都是0300-0600…嘆氣)
【近期的”民調”問題,翻譯如下】
如果您可以輕鬆地將會員資格贈送給其他人,您願意嗎?
如果”禮品會員資格”需要你持續送數個月,您會覺得送幾個月的禮物你較有意願並無負擔的?
線上,你多數時間都在哪裡分享你的 Midjourney 圖片?
您如何看待我們將默認圖像尺寸設為非正方形?
如果我們改變我們的默認圖像的縱橫比,你會喜歡什麼哪種尺寸?
如果我們在周六進行每週座談會,您想要什麼時間段?
如果我們讓您自行設置自己的默認圖像縱橫比,您會怎麼做?
你現階段最喜歡哪種放大器的演算法?
你會使用專門為動漫製作的模型嗎?
【新配置2022.08.18 17:15】
添加我們新的 Beta Upscaler!該模組可能會在未來幾天/幾週內仍會發生變化。但我們想提供一個預覽。它針對某些類型的內容上表現相對出色,間而補足我們目前的UPSCALE並不擅長的區域。但在某些風格上,可能會有意想不到的折抵效果。
您可以使用—upbeta。系統將一貫默認在U1-U4上。有點類似於過去的—uplight。你也可以在透過 /settings 中配置它。又或者,可以在放大圖案時看到該按鈕 Beta Upscale Redo。
【公告2022.08.19 01:43】
大家好,我們的機器人現在可以在任何服務器上使用。最多可容納一萬五千 人。下方連結,有相關操作指南教學,引導您順利將其添加到您的伺服器內:
https://midjourney.gitbook.io/docs/use-midjourney-on-your-own-discord-server
和往常一樣,下方有官方推文連結。讓我們一起把MJ滲透到各個大型伺服器上吧!❤️
https://twitter.com/midjourney/status/1560321208523968512
【公告2022.08.18 17:15】
大家好,今晚有三個更新:
1) 我們正在開始一個新的“設置專案”活動!
設置專案將在新的社交媒體帳戶以及專門的“設置專案”網站上發佈
要提交設置專案,請點下方連結:
https://o9q981dirmk.typeform.com/to/VRzRLcRG
2) 我們添加了三個新的聊天室來幫助人們展示他們的項目
paintovers - 適用於對 MJ 作品進行重繪或重大編輯的用戶
in-the-world – 適用於已經將MJ作品在現實世界中呈現的用戶
wip -代表的是works-in-progress,針對那些正在將很酷創作品,使用於MJ相關專案的用戶
3) 我們更新了服務條款。針對那些加購了隱私附加計劃或使用公司計劃的用戶,將提供額外保護。
- 我們的目標是基本上是跟正在進行需要符合保密條款項目專案的用戶們保證,您在我們的平台上是“安全的”。我們不會重新發佈您的作品。
- 我們不為普通用戶提供此保證,因為我們的“默認公開”政策下,才能讓大家共用社群圖庫所中顯示的所有圖像。
以下是新服務條款內文的確切措辭:如果您受公司許可的約束,或是加購了隱私附加計畫,我們將同意於服務期間,盡其最大努力不發佈您在任何“私人模式”的情況下所製作的任何作品。請注意,您在共享或開放空間(例如 Discord 聊天室)中製作的任何圖像都可供該聊天室中的任何人查看,無論當下是否啟用了私人模式。
這一切的調整,都是來自過去一個月在社群中所得到的反饋。請持反饋,繼續加油!謝謝!❤️
( 官方公告 2022.08.14 06:26)
大家好,我們即將投入大量資源來打造下一代網頁體驗。我們希望先重社群開始與你們討論我們應該構建些什麼。
首先我們要做的第一件事是啟動調查,呼籲各位提出想法並對預期功能進行排名,以便我們更加清晰諸位的需求。
調查連結在這裡:https://o9q981dirmk.typeform.com/to/PIGhROUG(這項調查有點攏長,您們可能想使用桌機或是筆電腦,並預留10分鐘來完成)
填寫完這份調查表後,請加入我們命名為 #nextgen-web 的新聊天室,讓我們集體進行發想吧。
謝謝! ❤️
題外話,8/12起MJ已將機器人擴展支持第三方服務器。所以現在機器人可以在任何擁有多達 10,000 人的服務器上運行囉。
( 官方公告 2022.08.02 07:21 )
嘿!它的世代來臨了!我們將嘗試推出 🪐 🪐🚀MIDJOURNEY元宇宙🚀 🪐🪐
即刻起,任何人都可以將MidJourney機器人帶到任何用戶少於一千人的Discord伺服器內。
- 邀請機器人進入您的私人伺服器與朋友一起共享吧!
- 為MJ於伺服器內創建新的主題社群!
- 將MJ帶入至您最喜歡的Discord社區(限1000名以下用戶)
- 任何未曾使用過MJ的使用者-都能在任何已串聯的伺服器上,獲得標準的~25試用張數
- 任何擁有Discord帳戶的的使用者都可以登錄我們的網站,並透過查看排行榜上的精選圖片獲取靈感 https://www.midjourney.com/pub/feed/
這一切都有些冒險。如果發生任何突發狀況,請耐心等候我們處理。能預見到AI在整個Discord生態系統中蓬勃發展,簡直是太棒了!
如果您將我們的技術帶到另一台伺服器,您就是我們的大使❤️。我們必須請您嘗試以最大可能的方式展示我們的技術,並使用它來幫助每個人對於未來更加樂觀。並啟發大家共同成為有能力的創造者。
有關如何將機器人帶到其他伺服器的指南,請參考下方連結:
https://midjourney.gitbook.io/docs/use-midjourney-on-your-own-discord-server
備註:目前該機器人只能在用戶數量上限一千或更少的伺服器上運行。我們這樣做是出於預防 Discord本身穩定性的疑慮。隨著機器人於伺服器上的開枝散葉,我們也將仔細觀察。如果一切正常,我們將陸續嘗試提高上限。請記住,我們的社群內的隱私及使用相關政策仍然適用。
願大家玩得盡興,開始散播你的正能量吧! 🕊️
( 官方公告 2022.08.02 07:45 )
其實呢 有點抱歉………… Discord機器人在2秒內湧入了大約100台伺服器的申請,然後它就當掉了……我們搞砸了……希望能盡快解決……很快就會更新 ....請繼續關注狀態以獲取第一手更新。當狀況正常時,我們會於這再發佈一次。
( 最新狀態 2022.08.02 05:54 )
- 我們在UPSCALE放大出圖的下方添加了評鑑按鈕!各位現在可以像從網絡上一樣透過表情符號對圖像進行評分!
- 拿掉UPSCALE輸出圖下方的“WEB”按鈕(這個按鈕可以直達看到對方的作品集,所以也便於看是否要追蹤用戶,增加啟發來源)
另外,好消息。
已經可以一次性地按日期圈選,並下載作品的ZIP檔案了。
教學已分享於臉書社團內。【自選下載。操作模式】【批次下載。操作模式】
( 官方公告 2022/8/1 04:51 )
大家好,我們的伺服器越來越龐大了!
- 我們於Discord上,現在擁有比 Fornite(要塞英雄) 和 Minecraft(麥塊) 的官方服務器要更多用戶!
- 我們正在迅速接近 Discord 服務器的最大規模:100 萬人
- 一旦我們達到上限,新人將無法再加入
所以今天起,我們將開始執行越來越嚴格的“踢除政策”。目前會先針對最不活躍的用戶(以確保我們為付費會員和新試用用戶提供空間)。
第一次的踢除政策將針對已經在入服超過7日但卻未曾使用過半次 /imagine 指令的用戶(抱歉了!)
如果您發現自己被踢除了也別擔心,您可以隨時點擊我們的主服務器再次加入。重新加入我們請點這:discord.gg/midjourney
如果您是付費會員,請不用擔心,您不會被踢除。
( 官方公告 2022/8/1 06:37 )
大家好,我們正在進行七月份的社群問卷!
這是為了幫助團隊衡量以下幾件事項
- 社區人口變化
- 消費習慣
- 人們想要什麼樣的價格方案
- 我們如何可以免費贈送更多東西的模式
- 用戶希望我們多開發什麼樣的功能(會以普遍需求為優先)
問卷調查連結於下方 https://o9q981dirmk.typeform.com/to/iJDvwePR (完成問卷大約需要 5 分鐘)
【問卷內容】整理如下
1. 你的年紀?
2. 你的性別?
3. 你住在哪個地區?
4. 您目前擁有哪種類型的會員資格?
5. 你主要用 Midjourney 來做什麼?
6. 您是否使用過增量計費購買了額外的快速模式?
7. 您使用放鬆模式的比重是多少?
8. 如果我們將快速模式費用降低 25%(從US$4/HR降低到US$3/HR),這會影響您的消費習慣嗎?
9. 如果我們將快速模式費用降低 50%(從US$4/HR降低到US$2/HR),這會影響您的消費習慣嗎?
10. 您希望我們再添加哪些功能?
11. 如果我們可以以任何方式改變使用方案,你想要什麼?
12. 您對以下任何附加方案感興趣嗎?
13. 如果我們提供以下新方案,您會升級到其中的任何一個嗎?
14. 你會為1HR的免費快速GPU時數,協助我們評價400張圖像嗎? (假設您每天可以根據你的需求重複執行此操作)
15. 你會為1HR的免費快速GPU時數,協助我們評價200張圖像嗎? (假設您每天可以根據你的需求重複執行此操作)
16. 你會為1HR的免費快速GPU時數,協助我們評價100張圖像嗎? (假設您每天可以根據你的需求重複執行此操作)
17. 您有意願評價 4000 張圖像來訓練 Midjourney 為您創建自定義風格選項嗎?
18. 你有意願評價 2000 張圖像來訓練 Midjourney 為你創建自定義風格選項嗎?
19. 您最希望看到哪些部份得到重點開發?下拉選1-6為選項進行排名
20. 您最希望看到哪些方向得到改善?下拉選1-7為選項進行排名
最後,非常感謝您填寫這份調查問卷! <3
非常感謝大家幫助我們更加地了解社群需求並協助我們為該產品做出決定! ❤️
( 畫廊更新 2022/8/1 - 12:36 )
- Cloudflare 回來了! 希望圖像加載部分會更快些
- 【下載工具】添加圖像到您的列隊即可以 .zip 格式批量下載! (目前這仍然是實驗性的,可能日後仍會調整)
- 用戶界面調整
- 各種錯誤修復和引擎蓋下的變化
( 2022/7/25 14:19 )
大家好,在接下來的幾周里將會有大量的變化。請係好安全帶。
1) 我們正在對第三代V3演算法進行ALPHA測試。
一切都會改變,有些東西會捨棄
/imagine 目前已默認的新算法
具有較少失真/偽影的新演算
我們將藉由積極推廣這些更改的“新默認設置”,來希望能達到大幅度地提高社群參與度,因為隨之我們將推出最終的 beta 版本
您可以隨時通過 --version 2 (前一代演算法) 或 --version 1 (第一代的 –vibe 演算法) 回到舊版本
2) 新的V3演算法有兩個重要的新參數 --stylize (風格化) 和 –quality (質量化)
a) 風格化參數將設置你的圖像的“風格”有多強,你設置得越高,它就越獨斷。最終它會變得偏執且而可能會開始忽略你所輸入的關鍵字。但它仍會有趣味性!
我們將“默認”風格化值設置為比過去更獨斷些。我們認為這將為新用戶帶來“顯著”改善的體驗。您可以隨時將“獨斷”降低到適合您展現藝術的標準。
b) 質量化參數將讓你給演算法“更多”或“更少”的思考空間。它同時還會改變圖像的成本。打比方 –quality 0.5將使您的圖像成本減半,而 --quality 5 將使您的圖像成本提高五倍。
【--STYLIZE (風格化)是如何運作的】
現在的默認 –stylize風格值為 2500。在某些情況下,您可能需要其他參數值。
--stylize 625 如果你基本上想關閉它
--stylize 1250 適用於您希望它“不那麼嚴格”但仍然維持“漂亮”時
--stylize 20000 如果您希望它“接管”並開始偏離您原本的關鍵字
-- stylize 60000 放手讓它放飛自由發揮,誰知道會發生什麼
【--QUALITY (質量化)是如何運作的】
默認值為 --quality 1 但我們將在下面為您提供一些其他選項:
-quality 0.25 超級粗糙的結果,但產圖快4倍/更便宜
--quality 0.5 不詳細的結果,但產圖快2倍/更便宜
--quality 1 這是默認值
--quality 2 更詳細的結果,但輸出慢2倍,價格也變2倍,產圖時間為2分鐘/圖
--quality 5 偏向實驗性質,有可能更有創意(亦可能更糟)或更加詳細,產圖時間為5分鐘/圖
在接下來的幾天裡,我們將“嘗試”讓質量化--quality 2跟--quality 5均可在放鬆模式下使用。但如果它讓其他人的等待時間太長,我們可能會很快禁用它。
以上這些變動驅使了我們系統核心有了巨大的變化。我們知道將這些參數值更變為默認值是有風險的。但我們需要大規模地了解這會如何影響正個服務器。
請在#feedback及#micro-polls中告訴我們你們的想法,如果它對您的創作過程中產生負面影響,請隨時加上 --version 2返回前一個版本。
根據諸位的反饋,我們將視況在接下來的1至3週內不斷調整。
祝大家玩得開心,謝謝!❤❤❤
附上 (質量化)參數--quality 1/--quality 2/--quality 5的比較圖共大家參考。
(2022/7/16 PM 13:58)
大家好!基於過去兩個月來自社群中的回饋,我們將嘗試從今天開始過渡到一個更加寬鬆的服務條款。
【新的服務條款】摘要:
1 )我們將嘗試扭轉過去的條款,把擁有圖像所有權及授權許可歸還給創作者們。而不再是由 MJ 擁有。創作者現在將擁有所有權,但授予 MJ 無限的許可。
- 需要說明的是,官方使用無限許可證的目的之一是為了允許社群的各位仍持續享有的混寫創作的開放性
2 )我們將從服務條款中刪除任何與區塊鏈/加密相關的內容。
3 )我們已大幅簡化並縮短了服務條款,使其更易於大家閱讀和理解。
- 您可以在 rules 或我們的這邊閱讀【新的服務條款】https://midjourney.gitbook.io/docs/terms-of-service
- 同時,我們也增添了【隱私政策】https://midjourney.gitbook.io/docs/privacy-policy
歡迎在 #feedback 留言反饋,我相信我們仍然可以持續改進。我們將繼續改變/適應/改進。正如我們過去 4 個月於 Discord Beta 的做法一樣。
感謝,願大家玩得愉快!❤
(2022/7/13 PM 14:43)
1 )我們將進入正式的公開測試版!現在可以直接透過https://discord.gg/midjourney 這裡加入。您可以與任何人(甚至公開的在網路上)共享此信息。
另外這裡有一條官方推文,便於讓大家轉發https://twitter.com/midjourney/status/1547108864788553729
2 )我們可能很快就會更新默認圖像生成的設置
要測試新的設置可以添加-- test 到您的PROMPT的末尾
【目前已知會更改的新設置內容】如下:
- 面孔、場景和生物會較少失真
- 圖像色彩將更豐富
- 圖像一般都會更“漂亮”
- 圖像在默認情況下看起來更“乾淨”(如果你想要一些"雜點",你可能需要在PROMPT中下更多的詞彙)
如有想法可透過 #feedback 回饋給我們。
這些更新是針對我們的演算法,於過去兩個月的第一次改變。它是基於用戶評分,而這似乎實際上有助於默認的審美觀及作品質量!然而,它仍在進行中,我們將繼續針對這方向深入研究,並在未來幾周內,會再定期實測-- test 的新版本。
---
我們正式進入公測版了!現在就透過 https://t.co/O1Qnl6hMgn
加入我們。請仔細閱讀我們的說明或查看我們詳細的操作指南: https://t.co/R0ZpVsyz8a
最重要的是,祝大家玩得開心!
🔗Office Hours Notes 🔥
Courtesy of gigglethumps#0442 / Tallath#0627
【OFFICE HOUR NOTES - 2022/8/4】
5000 person servers
big grids (web interface)
variety feature
new upscaler that will go double resolution coming soon
new upscaler with fewer artifacts, cheaper to use, and very high resolutions
new products they're making that aren't in a category, outside everyone's current experience
will be building 3d before something like video
video likely too expensive to implement for users
big grids probably won't be in relax mode (estimated 3 hour wait times if big grids and max upscale were available in relaxed
* New grids 4x4, 8x8, etc coming soon. Likely be web-based and not in Discord. Hours cost will be more expensive. More of a “power feature”
* Variety amount slider coming soon, to create more variation on images. Similar to style function. Potential to be granular
* Ability to invite bot to 5000 people Discord servers the next step
* Improving the default style to be more nuanced
* Next-gen model/s for larger image database and higher-res upscaler (6k) behind schedule. Possibly in next month or so?
* Working on “more powerful and more weird” tools. “The next 6 months are gonna be crazy”
* 3D will come before video. Will not be doing audio. 3D coming possibly in/after 6 months
* No intention to sell to some big company, no intention for IPO
【OFFICE HOUR NOTES - 2022/7/28】
will be lots of turbulence in next month
not a good time for long projects but great for being on the edge of discovery
couple weeks high resolution max upscale (3-6mp maybe) likely in the next couple weeks
haven't tuned max upscale yet. max resolutions will eventually be how much you want to pay and not how much you can get
8x8 is a huge quality of life improvement and he can't see anybody going back to 2x2 grids if 8x8 becomes as cheap as the current 2x2
will have a new payment tier for bigger queues (likely $10)
new users like things looking good and experienced users like things finicky and controllable
will allow bot in other servers next week, start off with <1000 user servers. bot in other servers could have an impact on the entirety of discord so they've been cautious.
thinks we'll see versions of this that are real-time in the next few years, which will highly increase interactivity. going to do 3d before video
important to keep people in flow state
probably will have inpainting one day but not convinced it's the right direction of the product
think we're too high on pretty scale by default
up to 10000 GPUs at peak hours
----------
**REMINDER NOTHING IS SET IN STONE**
coming soon: 8x8 grids, 6 MP images, tuning max upscale, big models not coming in next 2 weeks - its behind, next gen upsamplers eventually, next upsampler is about speed and cheaper potentially higher res, possibly new payment tier for bigger queues - scared of large surges, bot hopefully next week - wanted this week but need to be careful with deployment, one of the largest and most active servers on discord, bot for under 1k servers only, working on the sameness of faces and what not, working on more variation in grid now that things are beautiful wanted to make sure you got something you liked in previous model, v3 will be very unstable as new features are tuned - dont want to have to maintain a lot of versions, figuring out how to add commenting - worried about commenting in general and people being jerks and having to do moderation - not ready for it now - want a possible way to send users positive compliments - how do you spread positivity as a goal - anxious about copying social platforms due to toxicity, possibly show who follows you but now how many followers - not sure how to add more social stuff they want your ideas!!! Dont want toxic or gamification or difficult moderation, bulk download option for specific day coming soon, going to try to add light management stuff to hide and show things like folders and rearranging images (not private), want to make ratings a first class feature - theyre very useful for the team and community, wants to up the number of free fast hour per day to 400 or 800, if you put stuff in the feedback channel whole team reads it please dont use it for conversations, NSFW flag tripped at 4am and was very unexpected, david went over his background he is smrt, will make sophisticated user interfaces but not what others are doing - when its done they want a lot of thought - current lots of prototypes - the standard 10-100x better discourse, biggest change in user interface is not from a prompt builder but working fluidly with 64 images, big batches this month real time far away still, broadly speaking most people dont have computer drawing tools so dont really want a drawing interface currently - if it involves drawing it would be a drag image into application from whatever application you like, not interested in fixing a blue box on a green box etc... let other researchers figure that out then integrate it, if you have datasets you're willing to share with over a million images and want to share - theyre interested - accessibility text is more interesting than tags - not focused on data want to eventually collect obscure stuff - mostly focused on improving algorithms and giving users control, looking into letting users train it to their specific taste, 2 - 5 months will be data mode - for now model itself, issue with holding things is more about combining instead of compositing so word reading architecture needs to change - in flight, looking into interfaces for exploring the native latent space and exploring, working on infrastructure around shorter iteration cycles (about 5s response time I think I understand?) might be a few months, weight time has actually gone down a lot /imagine is almost 0 for almost everyone - upscaling weight time is higher but still small weight - want to make relax faster just hard to get it right - weight times are definitely way better than before - there are weird time cycles they're investigating - really need good infra engineers if you're interested, not worried about too much money - looking into dropping prices by making relax mode faster or fast hours cheaper - trying to make relax mode faster as a priority based on polls, not currently working on inpainting - maybe one day - see user interface comments - maybe one day its not hard (lol) - 64 image grids make inpainting feel bad - do not want users to learn how to draw, focused on adding diversity of styles and subjects back to it, Joe Penna talkedabouthisproces
Notes cont... Semi looking into transferring characters you like into different scenes - not within the 3 months - suggests image prompts and lots of grids / iterations, monitoring users for months have found no signs of addiction - definitely heavy use at first access - 1 week to 3 months - will get worried if they reach month 5 and still have ridiculous use, highest number of images from a single user is around 60k - most 50k images are pro's with a job paying for it, talked about mysterious tower with billowing clouds at stylizing 60k - put 60k there for fun, thinking of dialing back the beauty on stylize but doesn't want to remove all the weird suprises, algorithm cant see the whole image at once and wide and tall images are a bit wonky when generating - fix is known just on hold for next model - cant deploy due to code incompatibilities will 100% be fixed - dont be attached to things stuff will change and go away, hands have a neural bias towards blending things and possibly not enough images of hands - something that can be fixed over time not quite sure the exact issue, wants to test training on a TON of nude images to see if it improves anatomy - just how normal artists do nude studies, using prompt dataset to hopefully help users find things they want
【OFFICE HOUR NOTES - 2022/7/21】
Introduction by davidH
They're considering doing office hours at different times every week for inclusivity.
Focusing on scaling and features.
Up to 600,000 users and they're doing fine.
Discord can only handle up to 1 million people.
People like --test better on average (75% like it better) but there are downsides, so they're trying to address those downsides. Working on new version with user feedback (zombies too pretty, skin too pale, artist styles not as good) and they have promising models. Thought about pushing it last night but it didn't make it. Will be #1 priority for this week. They're trying to decide whether they want to make it the default style (because they look good, but at the expense of variety).
Next priority is big grids, it will cost more GPU power to use but it will be helpful for those who need 3x3 or 4x4 grids, etc.
Working on next generation up scaler.
They're considering flipping to light upscale by default. They think that faces will improve so much with the next --test model that they think people will be creating faces a lot more and will want to default to light upscale anyway. They want to balance realism with creativity (cats will have 4 legs), so maybe they will add more image modes to address it.
They're working on secret things, too. In the next 1-3 months they'll have really cool new features that will be natural extensions of the technology.
Website will eventually have more features (creation features) but they are not focusing on it.
Will create modular plans (so someone could add relaxed time).
Higher end features (higher priority relaxed?).
Educational material to help people learn how to use MidJourney.
Will have pre-rendered images for every single word and every single artist for people to check out.
Q&A
They want to do cartoons and anime better. They are working with people on that. Will have upsampler that will do different styles (halftone, pixel art).
Thinks that they have an obligation to make people feel good about the future of AI art, which is why they have so much censorship. They will eventually make the filters smarter ("sexy nebula" should be okay). So far, their smarter filter tests let things through that they shouldn't and block things that they shouldn't, they'll continue working on it in the future.
They would release an API if there were a project or company big enough. They want to maximize the number of people using it. He doesn't want MidJourney to become like a photo filter because it doesn't make him feel good. He likes that all the images are sort of like dreams right now. There's enough fake photos and photo filters in the world.
In the long term, will have a feature where you can change your prompt partway through but not a short-term priority.
They want much higher resolution, the new upscale will be more efficient as well as higher quality and likely will be able to offer higher resolution.
Someone suggested image prompts try HSV color space instead of RGB to emulate more how humans perceive things, davidH thinks that's an amazing idea (but it's a $10,000 experiment). They will probably not ever have investors so they can do whatever they want.
【OFFICE HOUR NOTES - 2022/7/14】
They're working on new upscalers with fewer artifacts and higher resolution.
davidH is saying that the --test feature makes everything prettier but in the future he wants to make it more subtle, like scary images shouldn't be prettier.
They want to add a 3d sort of feature in the future, like they can relight a scene, etc.
They're prioritizing features that will make 10x improvements (for example) instead of little features that will be 2x improvements.
They're going to be adding a lot more features to the discord UI in the coming months.
They aren't going to support all old algorithms forever but they will consider open sourcing old versions once they deprecate them.
Philosophy-wise, they think that open sourcing everything right away leads to people taking that knowledge and monetizing it, and making it a much more hostile competitive environment which can lead to the original research team being unwilling or unable to keep working on their original product which stales the entire space but they will almost certainly open source their code in the future.
He wants to focus on the human side of AI, which he says no other company is really focusing on. "Personally, I never really wanted a company, I just wanted a home to work on cool stuff for the next ten years, and focus on humanistic research instead of profit." "We want augmented imaginary powers for all people."
Demographics of midjourney are 76% male, 20% female, BUT there are more people over the age of 45 than under the age of 24, which is wild for a discord server!
They're scaling their data set from 400 million images to 4 billion images.
Future versions will parse and understand the words a lot better so it can handle spatial relationships much better. They've been working on getting midjourney more vibey and aesthetic instead of necessarily accurate.
座談會筆記 2022/9/15 03:20-06:25
【OFFICE HOUR NOTES 2022.9.15】
感覺是不是有一段時間沒有新東西了?但創辦人表示,其實距離上次的更新也才半個月呢!本次座談會的主軸重點訊息如下:
l 目前正在嘗試製針對[素材]這方面的功能。
l 正在嘗試是否能安插這樣的模組進入現有的系統,讓大家丟入圖片後可以產出對應的文字,也許在一至兩周內有可能實現。
l 想要再提供更高階品質的圖樣解析,大概還需要一至兩個月的時間。
l 正在訓練的新模型,不確定氛圍感是否會像V3一樣或更好,也不確定是否會更有連貫性。但能確定的是下一個模型將能透過圖像下提示。產圖時間會變快些,也比較不會有那麼多裸露圖像的問題。目前也不確定會否將這版本替換成目前的默認版本。
l 也在針對現有的test及testp做新進版本的調整。可以預期2 x 2圖示的回歸和更好的解析度。目前正在修復一些錯誤問題及圖片裁切問題。可能還要再耗時二至十天,目前狀況看似模型每天都在改善。
l 目前也有多個模型在訓練下有跟上我們要的氛圍。目前官方透過超級電腦來訓練新模型。這些模型過去從未用於圖像生成,如果它的訓練有效果,可以預期團隊會再嘗試添加大量新功能。
l 很感謝社群中大家的支持(一指訂閱付費使用),所以他們也將大部分都投入到訓練新功能中,例如alpha的架構似乎運行的不錯,希望很快就會看到成果。
l 新的芯片帶來很多不確定性(比如說團隊的超級電腦不得不被拆開並修復)
l 希望在接下來的幾週內再擴展網頁版(將擴展給更多用戶測試使用)
l 花更多的時間僱用適當的人力加入團隊,希望工作量不僅僅只有跟上,還能有餘可以去規劃一些更久遠事情。對於未來,除了有擴展、建立、添加功能、潤色、還有包括處理一些邊緣案例如谷歌驅動同步、專輯製作等。
l 驚喜功能[圖像轉文字],於網頁上處理。也會有其他功能即將推出。
l 不想過多炒作,但創辦人認為接下來的一個月或兩個月內會有很多成果。他感覺這樣很好。因為他覺得,他和他的團隊們一直維持對MJ的初心觀點。
--後續的問與答時間,較多是老話重提,所以我就不全部翻譯了--
--新朋友記得多多利用【MIDJOURNEY資源人包懶人包】--🔨
--別忘了加入英文官方社群 Midjourney Official --🆒
--目前有三個競賽進行中,快來共襄盛舉吧--📯
🔗過去的座談會筆記
翻譯 Reiko#6665
【OFFICE HOUR NOTES - 2022.08.25】
本次的重點整理如下。會議筆記如有不周全請見諒。
希望讓MJ成為藝術家們喜歡的地方,而不是感到威脅或是討厭的地方
現階段進行中的研究,希望要找出大家喜歡的藝術氣圍感方向
保持作品的同調性的同時似乎必須犧牲一些創意性,未來可能會製作一個可以橫拉的滑標來設置對應值
不希望作品像谷歌搜尋引擎的結果,也不希望它們像STOCK PHOTOS的圖庫內容
下一個版本的圖像解析放大器預計在一個月內推出
現有版本的圖像解析默認設置2048*2048
目前正在訓練新的人工智能芯片
正在進行一項秘密專案,預計在下個月推出
團隊已經著手針對網頁版在測試了,本周大約有40人在進行實測。下階段會再開放給100人,再來1000人,然後在10000人,針對介面做壓力測試。網頁版的本意也不是要大家脫離DISCORD。社交性的部分官方極為重視,所以該功能還在設法融入網頁版當中。網頁版本有輔助輸入法。
日後更大的DISCORD社群人數應該也可以加入BOT到他們的伺服器中
目前現有技術團隊只有十人。因為沒有打算引入投資者,所以想維持小而美。徵人用才的部分也會更加謹慎挑選。希望接下來能將人員分配處理不同的區塊(如網頁版,DC版…)
目前所有參數的默認設置值,都是建構於在百分之九十五的用戶的接受度下。針對要改善或是新增的項目也是同樣以這樣的標準下去考量先後順序
目前對於無意間使用禁字或是產出不雅圖片的處置都會是先讓用戶暫時停權一段時間(按嚴重性或次數),但是如果是很明顯的踩線違規的,如製作幼童色情圖之類的,將一律封號。帶有仇恨的圖像一樣不被允許。目前看起來是試用的用戶比較容易在不知情的狀況觸發停權。
--BETA 模型給圖片帶來了四肢,也能明確地握住或是拿東西。但是目前要克服的是,他們希望圖片看起來真實,但不能像深度偽照下的作品。真實度下也要考量到正確性。比如說,有太多圖片很像深偽名人照,這些踩線的作品有可能有國際版權等問題。它在後半段座談會時也有補充說明,相關版權法條或是財產法也終究會按時事需求而跟進或是立法(且不同國家也可能因文化差異上對相關的法規有差異),所以我們有弊勿讓一切的出發點都是好的,善良的
明天不太可能有新的突破,可能要兩周的時間才能再上架。目前有一位工程師病假,一位特休中,人力吃緊
照片取景的部分之後會有大幅度的改善。目前是以正方形的模式下去訓練。同時進行6種訓練,為期至少要一個月
提及到人工智慧深度學習的關鍵人物,創辦人提到這兩位:Yann LeCun (他在AI這方面的思想可以回朔到在30年前)及François Chollet各執一詞,帶領正個技術到一個新的成面
招募新人的部分,資料都已經整理好了。但是已經被埋沒在桌面上大半個月。會開始抽空一一看過並過濾。
針對作品的裸露度,他們在色情及藝術裸體形態中權衡
基本上他們希望我們的社群被定位帶來藝術體驗感,而不是黃標滿滿的作品感
至於為何—BETA模型在短短一天就暫時封測了,主要是因為團隊感到不安且審閱疲乏。還是那句話,希望作品接近寫實生動但絕對不是接近裸露。所以新的BETA模型基本上會是希望能讓上述問題排除。同時也要解決作品多數看起來太過平面,毫無藝術的生氣感,也缺乏MJ的獨有特色
目前文字權重及圖片權重的設置似乎要超過1000值才有影響,這部分搞砸了。還需要再調正就是了
動畫的作品,大家對於BETA產出的似乎都很滿意。但是我希望的並不是讓作品看起來完美,而是希望有更多的啟發跟創作感,不希望作品千篇一律都很相似,為來也希望可能可以一次性給大家64個創作方向或是風格
V3版本有它獨有的個性跟風格。那單純是因為數據案用戶喜好調整成那樣的。並不是因為它被訓練的模式所導致
人手充裕時,也想著手製作固定每兩周發行專刊
對於人工智慧業界的工作者們,創辦人覺得多數偏學者派。他們僅是想要透過相關研究來發表論文,而不是實實在在地去實做出一套東西。當然任何人都沒有義務一定要怎麼做。至於被問到是否有意把MJ的這套語法開放開源,創辦人說也許再不就的將來,比如說當我發佈V10的時候,可能有大概率我會把V1開放。基本上是否要保存現有的版本都言之過早,因為目前每天都有一點小進展,所以每次的改版才能讓大家感受到一個大躍進
創辦人蠻喜歡像素畫的,所以之後還是會讓它回歸的
提及到如果過要在過程中增減或是改變關鍵字,目前有風險
未來能會讓大家透過調整12個設置來微調構圖面,也會提供一些縮圖供參考,但是這些都需要時間一一去實現
BETA版本的權重是在句頭
對於BETA版的基礎架構是在SD之下。但工程師也花了兩天調整融合入MJ的參數值。但團隊一致認為其參數有點過頭了。因為太多的成品都像原版的高仿品。這是他們不樂意看到的。
創辦人的想法一直是希望大家能熱衷於自己所喜好的事物,這樣才能在特定的道路上走得長久
因為團隊的工作是要寫語法,很多時候他們必須假裝自己是電腦,然後試圖去預判它的結果。所以它也不希望在技術上的躍進讓人們變得機械化或是少了情感。他希望大家無論何時、何目的都要維持初衷,並知道自己在做什麼。
對於AI領域,它的看法是在這5至10年內,是它大幅度領先的時機點。就像在2020的階段時,我們對它的期許是能夠讓人類更好,而到了2030時,它大概率會被應用在建合成合生物上。就像它現今已經大幅度的被運用在遊戲視覺上。
目前MJ的用戶每天產出多少圖,創辦人說他不方便給個明確的數據。因為他不希望這變成業界大家互相較勁的數據。所以他是這樣隱喻的,每日的產圖量大約是IG每日貼圖的一倍
創辦人不希望作品太過像照片的主因還有一個。因為他不希望衍生出一群”類攝影師”的團體。因為諷刺的是,這些人當中有有機個真的拿過相機,知道如何攝影
他知道大家對於美輪美奐的作品還是有一定的需求,所以也許未來會有不同的伺服器對應這些需求,不過這都還停留在想法
隱寫術的部分有被用戶提及,但是目前應該沒有這方面的隱憂
未來也續會有放大顯示的功能,不過這目前不在優先清單中
有用戶提及針對動物跟自然寫生的部分似乎有進步空間,創辦人表示AI被訓練時並沒有一個名冊,所以主因除了數據庫外,就是被運算的次數。很快會針對這塊需求提供相關的模組
未來在網頁版,用戶可以更容易複製前一組關鍵字
大家可能不知道,AI對色彩這塊很不擅長,這也是它一開始最先被訓練學習的東西
下一套運算的版本是3D模組,不是2D/2.5D
AI的進步其實也象徵它學習了多少,而我們也使證實了文字有一定的影響力,可以透過文字形容這個世界。所以語言對人工智能有關鍵性的影響力
科技來自人性及創造力,我們都需要用有更多的創作力。AI沒有機會替代人類。
不鼓勵大家投入AI學術研究,但是在框架外是可以的。創辦人提及這位 https://twitter.com/RiversHaveWings 就是很好的案例。沒有業界的包袱,然後研究出關鍵的東西,改變近代的AI史。
未來可能有網頁版,可以讓大家把圖丟到一個頁面,然後透過逆向工程來得到該圖的相關關鍵字
【OFFICE HOUR NOTES - 2022/8/4】
即將推出雙倍解析度率的UPSCALE。偽像更少,使用成本更便宜,分辨率也會高
4x4、8x8 等【新網格】模式即將推出。不過可能會是架構在網頁上方,而不是透過 Discord。每小時的成本會提升。該設置比較屬於“強化功能”。另外大網格出圖不能在放鬆模式下執行,因為經評估在該模式下的極大化UPSCALE功能的等候時間有可能達三小時之久。
即將推出可滑式的【多樣化】選單功能。以協助用戶創作更多樣化的圖像。會類類似於先前推出的樣式化功能。有細製化的潛力。
下一步將讓機器人可受邀至有五千用戶的Discord 伺服器內
升默認【風格化】數值讓其更細緻
下一代的改版(目前進度落後於計畫),將會針對提供更大圖像數據庫以及提供更高解析度的畫質(6K)。有可能在下個月左右推出?
著手開發“更強大、更奇怪”的工具。 接下來的 6 個月會很瘋狂。
3D 將在視頻功能推出前之前落實。不會做音頻。 3D 可能在 6 個月內/之後推出。視頻可能對多數用戶成本會過高。
團隊無意出售給大公司,也無意IPO
目前進行的設計,將會跳出常規的框架,超乎各位的想像
【OFFICE HOUR NOTES - 2022/7/28】
下個月會有更多動盪(言下之意是更多的改變帶來的)
雖然目前不是做長期項目的好時機,但非常適合探索發現的階段(因為近期會一直調整參數跟設定)
在接下來的幾週內,可能會推出MAX高像素圖片輸出的功能(可能是 3-6mp),現階段尚未調好參數。
MAX高像素圖片輸出最終將會是取決於您想要支付多少,而不是您可以獲得多少。
8x8的網格格式可預期會極大地提高體驗質量。但是如果讓8x8網格格式維持跟像現狀的2x2一樣價位,他可以預期看不到任何人會有意願回到2x2網格模式。所以應該會另外新增一個支付等級,也就是用於更大的隊列(目前預估是是US$10)。
反饋統計,新用戶喜歡看起來不錯的東西。有經驗的用戶則較重視細節和可控性的因素。
下週將允許機器人進入其他服務器,約莫初期會先將用戶控制在 <1000以內。
其他服務器中的機器人可能會對DISCORD整體產生不和諧影響,所以他們到目前為止仍很謹慎應對。
基本上,團隊認為將在未來幾年內看到實時能夠大幅度增加社群互動性的版本。
會先著手讓作品3D化的功能,再那之後才會強化視頻影片功能。
團隊認為讓大家產生心流狀態很重要。
可能有一天會有圖像修復的功能,但他們不確信這是該產品的正確方針。
現階段版本,團隊認為默認參數將圖片導向過於漂亮。
顛峰時段,使用率多達 10000 GPU。
【相關問與答】
即將推出:8x8 網格,6 MP 圖像,調整MAX UPSCALE,但並不會在未來2週內不會出現。理論上會在下一個改版之後。下一版與其是可以上採樣器,再那之後的改版會是關於提速和盡可能讓高像素的圖片能更便宜些。可能是要有新的支付方案改善隊列等候問題。因為也擔心用戶使用量大幅激增,所以希望下週處理BOT。本想當週處理,但一切需要小心部署。畢竟握們是Discord上最大和最活躍的服務器之一。多數的BOT僅適用於1k以下的服務器。
目前在研究如何處理掉總是出現相似度過高的面孔的問題。也在研究關於如何使網格的如何產出更多變化。現在的東西很漂亮,官方也想確保大家能在過去的演算版本中得到你們所喜歡的東西。所以現階段而言,v3仍將非常不穩定。因為會持續不斷地一直微調該功能。另外官方也不想一直維護很多版本(言下之意就是未來很可能只保留接受度高解較為完善的版本)。
目前官方還在想要如何添讓大家針對作品添加評論。但因為同時也擔心有人惡意評或是寫了不適度的評論。所以現階段還沒有準備好。想要找到一種方式來讓用戶可以正像地發送積極的讚美。因為他們的目的是希望一切散播的都是正向能量。團隊對於複製社平台模式有些隱憂。因為其毒性。可能會讓頁面顯示誰關注了你,或是你目前擁有多少關注者。目前不知道要如何添加更多社交性的功能,所以他們歡迎大家交流想法!
團隊不希望毒化(太上癮)或遊戲化或使用上無法節制。
即將於特定日期會開放批量下載選項。同時也會嘗試添加微管理內容。比如說顯示文件夾和重新排列圖像(非PRIVATE功能)等內容。
整體上還是希望將點評作為第一優先選項。畢竟這部分的反饋對他們隊和社群會非常有用。
希望將每天免費的快速時數增加到400或800。如果大家將意見反饋在#feedback渠道中,整個團隊都會閱讀它。請不要將其用於對話。
NSFW(not safe for work-“下班後再看”的內容)在凌晨4點時非常出乎意料的發生了。已排除。
davidH回顧了它自身的背景,他很聰明,製作複雜的用戶介面,且不會做其他人正在做的事情。他們需要大量思考,加上當前有很多原型。標準的10至100 倍更好的畫素。目前最大的變化用戶界面將不會是快速生成關鍵字,而是流暢地一次性處理64張圖像(8x8網格)。本月份距離要實現大批量產圖時還很遠。
大方向來看,大多數人沒有電腦繪圖工具。所以當前暫時真的不會考慮加入繪圖軟件功能。再者,如果它涉及到繪製,本身應該是將圖像移置您喜歡的任何其他應用程序中使用,而不是把它固定在這個架構上。我等對於這樣架設並不感興趣......讓其他研究人員取搞清楚然後整合它。如果你有數據集您願意分享(且坐擁超過一百萬張圖片並希望分享),團隊會感興趣。
關鍵字的可用性他們覺得比標籤更有趣。目前團隊並不專注於數據化。希望最終是能收集一些鮮為人知的東西。主要還是會專注於改進演算法和給予用更多的控制權。研究讓用戶如何根據自己的喜好對其進行訓練。
2至5個月內將是數據模式。現有的模型本身,持有的問題更多是關於將物件組合而不是合成。因此單詞閱讀架構需要逐漸改變。
在進行中的是,正在尋找界面用於探索的原生的空間,這可能要圍繞於較短的迭代周期(理解的反應時間大約5秒?)開發該項基礎設施可能需要數個月。(換句話說就是盡量減少bot思考的延滯時間秒數)
使用權重時的實際等待時間已經下降了很多。/imagine的部分幾乎為0時差。放大圖片所使用的時間較長,但比重上仍小。目前他們想要使放鬆模式可以更快速產圖,但很難做確實。但權重肯定比以前好得多。目前有些許偶發奇怪的時間週期,他們仍正在著手調查中。如果你有興趣,他們真的需要優秀的基礎設施工程師。他們對於投資在人力上並不擔心。
他們將嘗試讓放鬆模式更快或讓快速模式更便宜些。將依大家的投票反饋部分,盡其所能地把時間用來研究如何讓放鬆模式能更快地產圖。目前不會針對修復圖片研發,也許有一天會,會看用戶實際需求再議。
64(8x8)網格會讓修復圖片變得糟糕,本質上他們並不希望用戶學習如何繪畫,而希望是專注於添加樣式的多樣性和話題性。
emi正在專研如何將喜歡的角色轉移到不同的場景中,這不會在3個月內體現。目前優先想建構完成建議關鍵字提示和大網格的部分。
目前監控用戶數月,尚未發現有用戶上癮的跡象。當然首次接觸的用戶肯定會大量試用。一般高使用量會來自於第一周至三個月。但如果他們到了第5個月並仍過度的使用,他們會擔心。
目前來自單個用戶的最高產出圖像數量約為六萬張。大多數產出五萬張圖像的多數都是專業人士,透過工作付費。
提到做了張滾滾雲層的神秘高塔,並將其風格化設置為-s 60000。一開始其實這樣設定只是為了好玩。但希望把圖片風格拉回美麗,但依樣報留了不想消除所有奇怪的驚喜。即使演算法無法一次看到整個圖像,或是生成成放大的寬和高時圖像時有不穩定的跡象,他們會於下一個改版時修復這問題。因代碼不兼容性而無法100%修復的狀況也會屆時處理好。
希望大家不要過度依附於現有的設定,因為很多東西屆時可能會改變或消失。
針對產出的手的圖像,可能是參數上的偏見,也可能是因為目前沒有足夠的相關圖像庫。這問題會隨著時間的推移,慢慢修復。雖然暫時還不太確定確切的問題點,團隊想要測試大量透過裸圖像的訓練,看看它是否改善了結構學的認知。就像正常藝術家如何透過進行裸體研究,他們會使用關鍵字的數據集,介而希望能最終幫助到用戶找到他們要的東西。
【OFFICE HOUR NOTES - 2022/7/21】
【davidH開場】
他們正在考慮每周在不同時段開OFFICE HOURS座談會,以展現包容性
目前團隊正專注於縮放功能。
目前有多達60萬用戶,他們仍維持得很好。Discord這個平台只能處理100萬人數。
統計顯示,人們整體而言喜歡 --test,而有75%偏好它。但它也有缺點,所以團隊們也正在試圖解決這些缺點。根據用戶反饋(殭屍太漂亮,皮膚太蒼白,藝術家風格展現的不夠好),團隊正在開發他們覺得很有可看性的新版本。本來昨晚想推動它,但並沒有成功。所以這件事將會是本周首要優先事項。同時,他們仍在思考是否要使--test成為默認預設值(因為它們產出的成品看起來不錯,但代價會是要犧牲多樣性)。
下一個優先事項是大網格(目前是2x2)。它將需要耗費更多的GPU來使用,但這項功能對於那些需要3x3或4x4網格的使用者來而言,這將是有幫助的。除此同時,團隊也會致力於下一代的放大功能。
目前,他們正在考慮將預設值翻轉為LIGHT UPSCALE(微放大)。因為他們認為下一個—test版本的的人臉會改善更多。且他們覺得多數用戶偏愛創作人像,通常都會將放大的出圖再LIGHT UPSCALE。所以改默認設定似乎是個選項。畢竟他們也想在現實性和創造力(打比方說貓有4條腿)當中取得平衡。所以也許他們會添加更多的圖像模型來解決這個問題。
他們也在做一些秘密規劃。在接下來的1至3個月內,他們將推出非常酷的新功能。這些功能可以預期是現有技術的自然擴展。
官網的部分,最終也將會有更多的功能(比如創作功能),但這部分不會是主軸。
訂閱方案也會增加特定的模組化方案(以便用戶可以加購RELAX TIME-放鬆模式時間)。也可能推出更高端的功能,比如:HIGHER PRIORITY RELAXED最優先的放鬆模式?
他們也會著手製作一些使用手冊,來幫助用戶學習如何使用MidJourney。比如他們會依照關鍵字(單詞)及每位藝術家風格提供預渲染圖像,彙整供用戶查看參考。
【問與答】
他們想把卡通及動漫的部分做得更好些,目前他們正在與他人合作中。之後將會有Upsamplers(上採樣器),將製做不同的風格(如半色調、像素藝術等)。
認爲他們有義務讓人們對人工智能藝術的未來感覺良好,這也是爲什麼他們有這麼多審查機制。他們最終會讓過濾器變得更聰明(比如sexy nebula應該沒問題)。而到目前爲止,該版本的過濾器仍在測試中,因為它讓不應該通過的詞彙通過,並阻擋了他們應該通過的字眼。他們將持續努力完善這部分。
如果有足夠大的項目或公司合作,他們會發布API。畢竟他們希望最大限度地增加使用者。
davidH不希望MidJourney變成一個照片過濾器,因爲這會讓他感受不好。他喜歡目前所有的圖像維持在有點像夢境的感覺。基本上他的認知裡,現世上已有足夠多的假照片和照片濾鏡了。
在長期規劃裡,未來將有會有一個功能是能開放用戶於創作產圖的過程當中,修改並增減初始的prompt。但短期內這不會是優先進行的事項。
他們想要題供更高像素的出圖。新的Upscale放大功能將更有效率及高質量。並可能將能夠提供更高解析度的畫質。
有人建議用HSV色彩空間取替RGB來模擬人類如何感知事物。davidh認爲這是一個很棒的想法,但這是一個要耗資一萬美元的實驗。但他們可能永遠都不會有投資者,因為這樣他們才可以任意做他們想做的事。
【OFFICE HOUR NOTES - 2022/7/14】
他們正在研究新的UPSCALE版本,希望能呈現更少的僞影痕跡和更高的解析度。
DavidH 說-- test 功能讓一切都變得更加漂亮,但同時將來他想讓它變得更細微些,比如恐怖的畫面就不應該變更漂亮。
他們希望在未來增加一個 3D 的功能,比如他們可以重新讓一個場景變得亮眼等等。
他們優先考慮改進的方向有打比方說:那些能帶來 10x 改進的特性,而不是局部 2x 的小特性。
在接下來的幾個月內,他們將爲 Discord UI 添加更多的功能。。
他們並不會永遠支持所有的舊算法,但他們會考慮於他們棄用該演算算法時,開放舊版本的原始碼
哲學理念的部分:他們認爲立即將一切都原始碼開放會導致人們利用這些知識並將其貨幣化。從而使其成爲一個更加惡劣的競爭環境。這可能會導致初始的研究團隊不願意或無法延續他們原來的產品,漸而使整個創作空間環境變得毫無新意。但他們會在未來開放源代碼,這點是幾乎肯定的。
DavidH 說他希望專注於人工智能的人性化這部分。他表示目前其他公司並未真正專注於此方向。此外,他還說…"就我個人而言,我從來沒有真正想要成立一家公司…我只是想要一個家,並在接下來的十年裡專注於很酷的事物上。同時專注於人文方面的研究,而不是利潤本身。” "我們要增強每個人的想象力。"
MidJourney 現階段人口統計資料的部分是:76 %的男性、 20 %的女性。但是 45 歲以上的人比 24 歲以下的人要多。這對於Discord伺服器而言簡直太瘋狂了!
他們將把現有資料庫從 4 億張圖像擴充到 40 億張圖像。
未來的版本,將會更擅於解析和理解單詞句子等。這樣一來它可以更好的處理空間關係。
他們一直致力於讓 MidJourney 變得更生動、更美觀,而不是增強其準確度。
↓ ↓ ↓ --test / --testp 建議參考下方更新的綜橫比最照表版本 ↓ ↓ ↓
🔗【非官方】各類資源連結
Midjourney AI 技巧收集|發起人Eredh Ereb ★ ★ ★ ★ ★
Artist Ref (Enviroment & Character)|藝術家參考表(環境&人物特寫參考) ★ ★★ ★
ARTWORKS BY STYLE|按風格分類作品 ★ ★ ★ ★
MidJourney-Styles-and-Keywords-Reference by willwulfken |willwulfken的風格關鍵字提示 ★ ★ ★ ★ ★
PROMPT STYLES AND WEIGHTS by Tallath|Tallath 的關鍵字風格&權重【絕世秘笈】 ★ ★ ★ ★ ★
Artist Visual Style Encyclopedia by Sincarnate |Sincarnate 的藝術家視覺風格【百科全書】 ★ ★ ★ ★ ★
Open Library of Artist Styles by MJ Community |MJ 社區的開放式藝術家風格圖書館 ★ ★ ★ ★ ★
ANDREI KOVALEV'S MIDJOURNEY STYLES LIBRARY | ANDREI KOVALEV'S MIDJOURNEY風格圖書館 ★ ★ ★ ★
Brief Builder by Learn Squared |Learn Squared 的簡要生成器 ★ ★ ★
PROMPTER by Shane McGeehan - Copy to Your Google Drive! |PROMPTER生成器 - 下載表格 ★ ★ ★ ★
PpromptHub | GPT/DALL-E CODEX/STABLE-DIFFUSION/OPENJOURNEY ★ ★ ★ ★
PROMPT Search |PROMPT 搜尋 ★ ★ ★
MidJourney Random Commands Generator v0.1 beta|隨機生成關鍵字生成器 ★ ★
Aesthetics Wiki |其它延伸風格的列表 ★ ★ ★ ★
~200 CLIP+VQGAN keywords on 4 subjects, by @kingdomakrillic |200+關鍵詞彙整 ★ ★ ★ ★
Midjourney-Photography-Resource by ymgenesis|攝影相片相關說明技巧 ★ ★ ★
Emoji XD|顏文字百科 ★ ★ ★
🔗Image Prompt Tools |組合關鍵字工具
Sponsored by Master Jinlin
🔗Image Restoration Tools |圖片修復工具
🔗APP Image Tools |APP 圖片工具
🔗Face Fixing Links|更專業的圖片修復工具
GFPGAN
Github - https://github.com/TencentARC/GFPGAN
Tencent example site - https://arc.tencent.com/en/ai-demos/faceRestoration
SquireZed's local install beginner's guide - https://docs.google.com/document/d/1dpbA7EQkdnusORWhbpfyfCsOF48eB2biU32U7Vs6mqg
Google Colab notebook - https://colab.research.google.com/drive/1sVsoBd9AjckIXThgtZhGrHRfFI6UUYOo#scrollTo=CdMZYp0T7NAy
RankSquid's instructions - https://discord.com/channels/662267976984297473/985676384707936276/986395707667787796
CodeFormer
Github - https://github.com/sczhou/CodeFormer
Project page - https://shangchenzhou.com/projects/CodeFormer/
Google Colab notebook (relatively untested) - https://colab.research.google.com/drive/1m52PNveE4PBhYrecj34cnpEeiHcC5LTb
SquireZed's local install beginner's guide - https://docs.google.com/document/d/1rU0HuSobGa5WXZTFR6agV3E4Ac7OTduLgqnsEP_hSBw
Nvidia Image Inpainting (may not work or give good results) - https://www.nvidia.com/research/inpainting/index.html
🔗Upscaling Links|圖片放大解析度工具
nrek's comparison chart between upscalers - https://cdn.discordapp.com/attachments/985676384707936276/993261641330339910/Midjourney_Upscale_Comparisons_v3_SKern.png
Real-ESRGAN
Github - https://github.com/xinntao/Real-ESRGAN
Cupscale (free GUI program for Real-ESRGAN) - https://github.com/n00mkrad/cupscale
(May need extra setup, guide here - https://discord.com/channels/662267976984297473/985676384707936276/993244011169067012)
Setting up Cupscale from scratch. (following notes and instruction from starshaowx2) https://github.com/n00mkrad/cupscale
SquireZed's beginner's guide - https://docs.google.com/document/d/1FvGYFi4C1qSCa_-AblgsjLwtmMTf2LhYczUxFbqklI0
Portable versions - https://github.com/xinntao/Real-ESRGAN#portable-executable-files-ncnn
SquireZed's local install beginner's guide - https://docs.google.com/document/d/1utc7CvK_CloCpO6YvJaB1y0SXHqwPowGvZOr5NkJaB0
chaiNNer (free GUI program for upscaling and other tools/uses. Powerful but advanced - https://github.com/joeyballentine/chaiNNer
SquireZed's beginner's guide - https://docs.google.com/document/d/1aJ2bT5zsBpd658rV47zVSjuK68-EIr8BKZb3cnDpWrE
Paid Options
Topaz Gigapixel AI - https://www.topazlabs.com/gigapixel-ai
Mediachance Ai Photo & Art Enhancer - https://www.mediachance.com/aienhancer/index.html
🔗Other Useful Links|其他輔助工具
Prompt Morph - Nate Raw: https://twitter.com/_nateraw/status/1560320480816545801
https://gist.github.com/nateraw/c989468b74c616ebbc6474aa8cdd9e53
Prompt Morph Page: https://replicate.com/andreasjansson/stable-diffusion-animation
Fly into 2D Image - Google Research: https://infinite-nature.github.io/ 參考影片: https://www.youtube.com/watch?v=_Y1-KlTEmwk
InPaint AI - Gene Kogan: https://twitter.com/genekogan/status/1555184488606564353
Run Stable Diffusion on M1 Mac: https://replicate.com/blog/run-stable-diffusion-on-m1-mac
Prompts without cropping off people’s heads: https://medium.com/mlearning-ai/how-to-get-your-ai-art-generator-to-stop-cropping-off-peoples-heads-ae3183e79981
Ai Tools Link collection: https://pharmapsychotic.com/tools.html
Google Colab Pricing: https://colab.research.google.com/signup
Real-ESRGAN Upscale: https://colab.research.google.com/drive/1k2Zod6kSHEvraybHl50Lys0LerhyTMCo?usp=sharing
Gigapixel AI: https://www.topazlabs.com/gigapixel-ai
GFPGan Face Restore: https://replicate.com/tencentarc/gfpgan