AI創藝學苑--攝影人如何快速的邁入AI運用之旅

AI人像

整理一下昨天社團直播前的Q&A題庫,提供給各位參考。也感謝琴大,Kurt Lin大!以及社團的幹部群。

■ 自我介紹

大家好,我是賀伯,目前是「AI創藝學苑」的創辦人。很榮幸一起參與A1互惠攝影社的社團的活動。

我玩攝影已經有很長的一段時間,在AI的熱潮下,我有個新的想法是,去結合AI與攝影的創藝,一方面可以協助攝影人,運用AI的技術,讓作品更精彩,並且延伸作品的版圖。

另一方面,導入攝影的概念到AI 領域,讓 AI 的影像更有作品感!

目前,網站上已經有兩堂新的課在進行中,都是秉持這樣的概念在推動。


■ 賀伯老師現在生圖的提示詞是自己寫,還是仰賴於AI的助理生成?!

應該算是人機協作,初稿都是AI助理幫我分析影像、撰寫提示詞的初稿。

但是都會經過我自己的改寫。

剛開始可能改寫幾個句子,但是現在改寫的比重還頗高。

大約是 50% - 60% 是我自己寫的。

尤其是在導入「彈性框架提詞法」以及「拍攝計劃提詞法」 ,並且更加的重視影像的美學形式後。就變成很大比率是自己寫的。

並且突然覺得,以前很多AI幫我寫的提示詞,還是欠缺美學形式,尤其是光影的佈局的部份!

而且很重要的一點是,我們並不是要去複製別人的概念,而是書寫自己的想法。因此,會需要自己寫提示詞的部份。現在,AI助理最大的幫助,反而是幫我激發靈感,寫文案的初稿方案,或是分析場景的元素。

■ 賀伯老師現在使用的工具,是以本地端為主?還是以雲端的平台為主?

目前本地端跟雲端都有,比率大約是 5:5

雲端的部份,主要是用來做一些需要耗時生成的作業。

像是影片的生成、圖像的放大,模型的訓練,或是某些較新的模型。

或是閉源的工具,像是Gemini、Whisk等。

但是只要是客戶相關的,都會在本地端進行,不會上雲端。


■ 賀伯老師覺得AI會取代攝影嗎?

不會,因為攝影的紀實性、情感性、社交性及經驗歷程,是無可取代的!

攝影及AI生圖,可以是不同的趣味。

■ 賀伯老師覺得AI人像會取代模特兒嗎?

可能某些機會變的較少,但是AI 的技術又會創造新的機會。

包含了社群行銷以及變現形式,都產生了新的機會。

而且依我所見,目前有許多模特兒已經投入了。

其中有一個形式是,是虛擬的 IP 結合真實的人設。

虛擬的 IP,可以是代班的概念,用於延伸作品。

做的不錯的話,甚至可以演進成為商品,例如特定的寫真。


■ 目前使用什麼工具?

我使用的AI工具非常的多,

如果是影像相關的,主要是:

ComfyUI 下的 Qwen 千問, Wan 萬相以及 Flux、Flux Kontext。

KritaAI 下的 Flux、Flux Kontext

Midjourney

還有 Google 的 Gemini、Whisk,當然也包含最新的 Nano Banana技巧。

還有像是 Dreamina 即夢、Kling AI 可靈平台,甚至特定的TikTok、美圖也都會使用。

影像的風格,有時也會運用Lightroom、Photoshop來做調整。

目前的課,主要是 Google 的 Gemini、Whisk為主,涵蓋Nano Banana技巧。

鎖定的目標是新手,以及初學AI生圖的攝影人!從初階到老手,包含了許多進階的觀念!


■ 對於想要學習AI生成的攝影師有什麼建議?

我個人認為,可以先從可以從簡單好學,又具有威力的 Google Gemini、Whisk入門。

這兩個工具,都可以免費使用、可以生成具有真實感的人像作品!

學習曲線又很低,也不需要採購新的硬體,有Google帳號就可以使用。

又有Nano Banana模型的加持,修圖、改圖很方便!

然後從裡面學習到提詞的技巧,如果將攝影的概念帶進來。

這樣會比較有成就感。


熟悉之後,再來慢慢考慮,是否同時使用其它的進階工具!像是ComfyUI或是KritaAI,我覺得也是很好用的工具。


■ 「AI人像練功坊」的新課程中的介紹提到,可以像外拍一樣引導AI,創造非凡影像,這是生圖的新方法嗎?

這是根據工具特性,所衍生的提詞方法。

我們可以將拍攝計劃的提詞,或是彈性框架的提詞,提供給AI。

就可以運用外拍引導的方式,進行生圖。

課程也針對AI人像的引導形式,特別做了介紹。

引導的方式,一方面是引導模特兒姿勢的方法,另一方面是考量讓模特兒跟場景元素互動的方法。

透過這個過程,就如同我們外拍的引導一般,便可以進行圖像的生成。

而在拍攝計劃提詞中,我們已經控制了影像的品質,以及拍攝的情境。

因此,一系列引導AI的圖像生成,都可以得到更好的作品感!

這便是課程中,拍攝計劃提詞法的內涵。

在整個課程的進行中,透過各種主題及情境,提供了相當豐富的範例。

事實上,因為引導的過程跟外拍類似,攝影人也可以將它當成外拍引導過程的模擬。

這就好像是機師在實飛之前,也會做很多的飛行模擬!


 
■ 聽起來是個有趣的提詞方式,如果不太懂提示詞的寫法怎麼辦呢?

 事實上,課程中提供了所謂的 4F提詞法。

不僅跟攝影人的概念吻合,也都有實際的例子做引導!

因此不用太擔心,而透過實戰的過程,就會對提詞方法,有了全新的體認!

 4F提詞法,這是一種適合Gemini及Whisk工具特性的提詞方法,4F代表了:

 ☆彈性框架提詞法(Framework)

☆拍攝計劃提詞法(Filming Plan)

☆情境引導提詞法(Facilitative)

☆主題元素提詞法(Fundamental)

■ 當大家都開始玩AI的影像生成,如何讓自己的影像不同?有沒有什麼致勝的概念?

創作或許不是跟別人在比賽,而是自己的概念、觀點及美感的傳達。

所以我認為,如何讓自己的影像不同?最後的關鍵也在於因為自己的概念不同、美學形式不同,因此,影像就會很不同!

所以,AI跟攝影一樣,除了技藝的演練,便是美感的訓練了!


而這個美感的應用落地方法,在目前Gemini及Whisk的實踐上,其實便是4F的提詞法。

將美學的形式,以彈性框架的提示詞,跟AI做溝通,並可以結合情境,衍生出拍攝計劃。


■ 如何確保AI影像的作品感,或是有更好的美感?

從「形式美學」的觀點出發的話,

我們可以將攝影上的「氛圍感」、「風格感」以及「光影構成」,運用彈性框架提詞的做法,導入在AI的生成中。

譬如用光,都說攝影是用光的藝術,AI人像致敬攝影,「光影構成」便是影像美學形式的重中之重!

而我們也對AI人像用光,進行了探索,但是跟傳統不太一樣的是,我們除了基本在AI的特性上,沒有複雜的理論,會將用光的邏輯,放在「作品性」,而不是傳統的「理論上」,將光線的處理,放在「光效」,而不是「光法」。

讓整個作品的成果,更貼近目前新生一代族群。


■ 課程提到了Whisk ,這套工具目前在台灣可以使用嗎?

目前可以透過VPN使用,課程會教導使用的方法。

它是另一套很具威力的工具,可以參考主題、場景元素以及風格,來進行影像的生成。

若是運用我們的框架提詞法來做,可以同時兼顧效率及品質,得到令人驚艷的影像!

 

■ Nano Banana模型是什麼?

這是一種新的AI模型,目前已融入Gemini的生圖模型中,可以更方便的遵循提示詞改圖,並達成保持更好的一致性的人物特徵,也可以融合多圖的元素,在一張新的生成圖上。當然,它也可以文生圖。

未來,Nano Banana模型的特性也將會融入Whisk及Flow之中。

其實,Nano Banana的概念,原本就是自家Whisk,並參考了像是字節的SeeEdit做法。

而Whisk的運作模型,也是課程4F提詞法的取法根源。


■ 課程目前有什麼優惠嗎?

「AI人像練功坊」8月份目前特價中,預計9月份調整為新的價格。有興趣的同學,可以搜尋「AI創藝學苑」。謝謝各位。 

Posted by 賀伯老師 Herb Hou, On 下午2:24

AI 創藝學苑 -- 人像優化描述檔2.0開放下載(支援Lightroom)

日系風格/ 外拍/ Lightroom/ Portrait

人像優化描述檔2.0開放下載(支援LrC) 各位朋友,這個好用的描述檔,主要是改善特定情況,尤其是膚色臘黃時,可以讓膚色變的清透,帶有嫣紅感。

本身也可以作為一個清新導向的風格。 它是運用色彩對映的原理,跟純粹調整白平衡是不同的情況,因為它同時還調校了幾個相關的記憶色,對於人像的適用性會更好。 在Lightroom中,請用右側的描述檔項目匯入,而不是使用左側的預設集來匯入。

同時,它通用於RAW及JPEG,以及所有的相機,解決了過去需要針對每一台相機製作、以及只支援RAW的運用困擾。 它跟預設風格也有所不同,各位面板的調整,可以疊加在它的上面。

為了慶祝新站的成立,感謝大家的支持!各個描述檔就放在「AI 創藝學苑」的文章中,提供下載,來到文章的選項,運用Google帳戶登入後即可以看到。:

https://aiart.kaik.io/posts

同時,我有做一支影片,示範更多的前後對照效果。 

 有任何的問題,可以私訊我,或是加我好友詢問都可以,感謝。

 圖:僅運用一個描述檔,即可以有不錯的效果。

Posted by 賀伯老師 Herb Hou, On 上午10:38

FLUX的照片級寫實版本來了--FLUX.1 Krea [dev]

AI/ AI人像/ Flux
FLUX的照片級寫實版本來了

今日(8/1),黑森林協同了Krea 發表了專為照片級寫實而生的FLUX.1 Krea [dev]版本。

測試了一下,有幾個觀點:

■ 對,現在的生圖結果媲美照片級的寫實效果,表現銀鹽顆粒也算自然。以後,生成真實感的人像,都算標配了。

■ 它相容於FLUX.1 [dev] 架構與生態系統,不過,看起來權重是不同的,Lora需要重新訓練過。

■ 其實,這個版本是必要的,在真實感的人像議題,FLUX.1現在面臨Wan體系的強大挑戰,Wan體系現在就缺豐富的Lora群支援。另一方面,像是Gemini/Whisk的核心,展現相當優越的物理性,寫實的能力也是相當不錯。

 這個領域的技術,可以說越來越有趣了,今日,我預計還是公佈一個關於AI人像的新課資訊,敬請期待。

Posted by 賀伯老師 Herb Hou, On 上午10:47

AI 創藝學苑 -- 機智的AI 生活, 新課課務更新報告 0710

 跟同學做課務進度報告, 我在「AI 創藝學苑」平台上線的新課, 目前已有58+支影片上線了,即將上線的部份剩下個位數, 這幾週的更新包含:

■ 每個AI助理中, 都有影片介紹, 包含了設計的想法及操作示範, 並且是以較活潑的雙人 Podcast 來講解配音。

■ 新增了攝影專用的 AI Web App, 預計未來還會再提供一些新工具(第11章)。

■ 新增了 MJ7 、Veo3 影音協力工具 , 也支援了目前流行的穿越時空直播腳本產生, 以及新增皮克斯風格故事小編(第8章)。

■ 新增了「從限流到百萬瀏覽,攝影師的社群挑戰」的一些經驗分享及數據揭露(第3章)。


我預計這個月就會將課程收尾的部份完成, 但今年還會持續新增一些東西進來, 讓這個課更加的完整、超值, 感謝大家的支持, 隨著課程的製作近尾聲, 早鳥的優惠也即將結束了, 對課程有興趣的朋友, 請參考:

https://aiart.kaik.io/courses/smartai

有任何的問題, 可以私訊我!

Posted by 賀伯老師 Herb Hou, On 晚上10:05

鏡頭的壓縮感/透視感,網路及AI的解答正確嗎?

外拍/ AI

鏡頭的壓縮感/透視感,網路及AI的解答正確嗎? 索尼社團上昨天有個有趣的問題,是問鏡頭焦段跟壓縮感/透視感的關係。

這是個老生常談,又讓新手困擾的問題,但裡面的問答,點出了幾個問題,其中兩點:

1) 在網路上搜尋,結果,他的答案有誤,認為焦段是壓縮感/透視感的最重要關鍵。

2) 問AI,結果AI的答案有誤,也認為焦段是壓縮感/透視感的最重要關鍵。 

解決 1的問題,需要好的網路搜尋比對源,以及辯證的能力。 

解決 2的問題,需要好的AI應用力,以及辯證的能力。 

先看看下列的解答說明: 透視感(Perspective),簡單來說,影響透視感最關鍵的因素是「拍攝距離」,也就是您與被攝主體之間的距離。

而「鏡頭焦距」則是決定了我們在特定拍攝距離下,能夠將多少景物納入畫面中。

讓我用一個簡單的例子來說明: 

■使用廣角鏡頭(例如 24mm):為了讓主體在畫面中有足夠的大小,您需要靠近主體拍攝。這時,由於拍攝距離很近,近處的物體會顯得特別大,而遠處的背景則會被壓縮得比較小,產生強烈的「近大遠小」透視效果。 
■使用長焦鏡頭(例如 200mm):為了讓主體在畫面中有相同的大小,您需要遠離主體拍攝。這時,由於拍攝距離很遠,遠處的背景會被「拉近」,看起來與主體的距離沒有那麼遙遠,透視感就會變得比較平緩,也就是所謂的「壓縮感」。 

所以,您可以這樣理解: 

■拍攝距離 -> 決定了透視感的強弱。
■鏡頭焦距 -> 決定了在該拍攝距離下的構圖範圍。

---

是不是講的簡單、明瞭又清楚!

但是,這個文卻是我做的一個AI助理寫的!沒想到,跟我之前寫的文相比,又簡明了許多。

簡單來講,不管是網路搜尋,還是AI問答,都要提供交叉比對、辯證核實的步驟。

就像以前只有圖書的時代,所謂盡信書、不如無書。不是都不要看書的意思,而是同樣要交叉比對、辯證核實。否則,看錯誤的資訊,不如不看。

---

AI可能會出錯,但也可能有傑出的回答,這個關鍵在於如何問、如何讓它比對資料、辯證核實。 問錯了問題,給錯了方向,它又順著你的意,結果就很可能有問題! 我覺得回到根本,這就是AI提示詞工程的內涵。

提示詞工程就是AI 領域,像是「基礎攝影」一樣的東西!

--- 

早期的LLM,是從網路上抓資料、學東西。蒐集整合網路的資料,它是有機會給出似是而非的答案的。 但現在的LLM,在面對問題時,是可以交叉比對的,並不是純粹的接受資料。 當然,人才是最終的把關者,所以,「評估」是提示詞工程的必要環節。

圖說:在相同距離下,Zoom In, Zoom Out,改變的只是焦段,不會影響透視。

Posted by 賀伯老師 Herb Hou, On 上午9:33

Google Gemini的TTS測試

AI/ Podcast

 Google Gemini的TTS究竟表現如何?

這邊有些範例及心得可以跟大家分享: 基本上,它可以將台灣習慣的腔調表現的還不錯,透過雙人的Podcast對談時,也可以相當的活潑、自然。我覺得很適合用在包含:影片的配音、短影音的配音以及Podcast中。 尤其是在教學影片的配音,因為更易於用活潑的形式跟同學強調學習重點,我覺得學習的效果會比單人講述的形式更好些!

當然,目前也有些問題要克服,包含更好的IP語調一致性,以及是否可以直接產出字幕檔。目前我已用這個工具,幫大約40幾支的影片做過配音,對於話速、特定單字發音、語氣控制等,也累積許多的心得。

以下是可以提供的範例, 範例參考一,
影片配音: https://herb.pse.is/7utnr8

範例參考二,
Podcast應用:https://herb.pse.is/7utnxl

Posted by 賀伯老師 Herb Hou, On 下午6:41

AI 創藝學苑 | 「機智的AI生活」專屬的 Podcast 頻道正式推出

AI/ Podcast

 各位同學好,因為AI 工具的演進、生產力的提升,現在,我們終於也可以有餘力推出 Podcast 頻道了,「機智的AI生活」專屬的 Podcast 頻道,在今天正式推出,將會跟大家摘錄探討許多內容。針對攝影人、影像小編,影像工作者,不僅是生圖的技術,重點在探索以AI讓自己更高效的成長、工作術,頻道可以參考:

https://herb.pse.is/7utnxl

Posted by 賀伯老師 Herb Hou, On 下午5:41