鏡頭的壓縮感/透視感,網路及AI的解答正確嗎? 索尼社團上昨天有個有趣的問題,是問鏡頭焦段跟壓縮感/透視感的關係。
這是個老生常談,又讓新手困擾的問題,但裡面的問答,點出了幾個問題,其中兩點:
1) 在網路上搜尋,結果,他的答案有誤,認為焦段是壓縮感/透視感的最重要關鍵。
2) 問AI,結果AI的答案有誤,也認為焦段是壓縮感/透視感的最重要關鍵。
解決 1的問題,需要好的網路搜尋比對源,以及辯證的能力。
解決 2的問題,需要好的AI應用力,以及辯證的能力。
先看看下列的解答說明: 透視感(Perspective),簡單來說,影響透視感最關鍵的因素是「拍攝距離」,也就是您與被攝主體之間的距離。
而「鏡頭焦距」則是決定了我們在特定拍攝距離下,能夠將多少景物納入畫面中。
讓我用一個簡單的例子來說明:
■使用廣角鏡頭(例如 24mm):為了讓主體在畫面中有足夠的大小,您需要靠近主體拍攝。這時,由於拍攝距離很近,近處的物體會顯得特別大,而遠處的背景則會被壓縮得比較小,產生強烈的「近大遠小」透視效果。
■使用長焦鏡頭(例如 200mm):為了讓主體在畫面中有相同的大小,您需要遠離主體拍攝。這時,由於拍攝距離很遠,遠處的背景會被「拉近」,看起來與主體的距離沒有那麼遙遠,透視感就會變得比較平緩,也就是所謂的「壓縮感」。
所以,您可以這樣理解:
■拍攝距離 -> 決定了透視感的強弱。
■鏡頭焦距 -> 決定了在該拍攝距離下的構圖範圍。
---
是不是講的簡單、明瞭又清楚!
但是,這個文卻是我做的一個AI助理寫的!沒想到,跟我之前寫的文相比,又簡明了許多。
簡單來講,不管是網路搜尋,還是AI問答,都要提供交叉比對、辯證核實的步驟。
就像以前只有圖書的時代,所謂盡信書、不如無書。不是都不要看書的意思,而是同樣要交叉比對、辯證核實。否則,看錯誤的資訊,不如不看。
---
AI可能會出錯,但也可能有傑出的回答,這個關鍵在於如何問、如何讓它比對資料、辯證核實。 問錯了問題,給錯了方向,它又順著你的意,結果就很可能有問題! 我覺得回到根本,這就是AI提示詞工程的內涵。
提示詞工程就是AI 領域,像是「基礎攝影」一樣的東西!
---
早期的LLM,是從網路上抓資料、學東西。蒐集整合網路的資料,它是有機會給出似是而非的答案的。 但現在的LLM,在面對問題時,是可以交叉比對的,並不是純粹的接受資料。 當然,人才是最終的把關者,所以,「評估」是提示詞工程的必要環節。
圖說:在相同距離下,Zoom In, Zoom Out,改變的只是焦段,不會影響透視。