લેખ

રેગ્યુલેટિંગ AI: 3 નિષ્ણાતો સમજાવે છે કે શા માટે કરવું મુશ્કેલ છે અને સારું કરવું મહત્વપૂર્ણ છે

શક્તિશાળી નવી AI પ્રણાલીઓ છેતરપિંડી અને ખોટા માહિતીને વિસ્તૃત કરી શકે છે, જેનાથી સરકારી નિયમન માટે વ્યાપક કોલ્સ થાય છે. પરંતુ આમ કરવું એ કરવા કરતાં કહેવું સહેલું છે અને અણધાર્યા પરિણામો આવી શકે છે

અંદાજિત વાંચન સમય: 11 મિનુટી

તેને આપો નકલી ફોટા ડોનાલ્ડ ટ્રમ્પની ન્યૂયોર્ક સિટી પોલીસ અધિકારીઓ દ્વારા એક ચેટબોટમાં વર્ણન કરતા ધરપકડ કરવામાં આવી હતી કોમ્પ્યુટર વૈજ્ઞાનિક ખૂબ જ જીવંત છે કારણ કે દુ: ખદ અવસાન થયું , સિસ્ટમની નવી પેઢીની ક્ષમતા કૃત્રિમ બુદ્ધિ આકર્ષક પરંતુ કાલ્પનિક ટેક્સ્ટ અને છબીઓ બનાવવાની જનરેટિવ ડ્રાઇવ સ્ટેરોઇડ છેતરપિંડી અને ખોટી માહિતી વિશે એલાર્મ ફેલાવી રહી છે. ખરેખર, 29 માર્ચ, 2023 ના રોજ AI સંશોધકો અને ઉદ્યોગના આંકડાઓના જૂથે ઉદ્યોગને તાજેતરની AI તકનીકો પર વધુ તાલીમ સ્થગિત કરવા વિનંતી કરી હતી અથવા, તે સિવાય, સરકારો "મોટોરિયમ લાદવા" માટે.

ઇમેજ જનરેટર્સ ગમે છે SLAB , મિડજર્ની e સ્થિર પ્રસરણ અને સામગ્રી જનરેટર જેમ કે બાર્ડ , GPT ચેટ કરો , ચિનચિલા e લામા - હવે લાખો લોકો માટે ઉપલબ્ધ છે અને તેનો ઉપયોગ કરવા માટે કોઈ તકનીકી જ્ઞાનની જરૂર નથી.

AI સિસ્ટમ્સ જમાવતા અને લોકો પર તેનું પરીક્ષણ કરતી ટેક કંપનીઓના ઉદ્ભવતા લેન્ડસ્કેપને જોતાં, નીતિ નિર્માતાઓએ પોતાને પૂછવું જોઈએ કે શું અને કેવી રીતે ઉભરતી તકનીકનું નિયમન કરવું. વાર્તાલાપમાં ત્રણ ટેક પોલિસી નિષ્ણાતોને સમજાવવા માટે કહ્યું કે શા માટે AIનું નિયમન કરવું એક પડકાર છે અને તેને યોગ્ય રીતે મેળવવું શા માટે એટલું મહત્વપૂર્ણ છે.

હ્યુમન ફોઈબલ્સ અને મૂવિંગ ટાર્ગેટ

એસ. શ્યામ સુંદર, મલ્ટીમીડિયા ઈફેક્ટના પ્રોફેસર અને ડિરેક્ટર, સેન્ટર ફોર સોશ્યલી રિસ્પોન્સિબલ એઆઈ, પેન સ્ટેટ

AI ને નિયંત્રિત કરવાનું કારણ એ નથી કે ટેક્નોલોજી નિયંત્રણની બહાર છે, પરંતુ કારણ કે માનવીય કલ્પના પ્રમાણની બહાર છે. જબરજસ્ત મીડિયા કવરેજ એ AI ક્ષમતાઓ અને ચેતના વિશે અતાર્કિક માન્યતાઓને વેગ આપ્યો છે. આ માન્યતાઓ પર આધારિત છે " ઓટોમેશન પૂર્વગ્રહ ” અથવા જ્યારે મશીનો કોઈ કાર્ય કરે ત્યારે અમારા રક્ષકને નિરાશ કરવાની વૃત્તિ પર. એક ઉદાહરણ છે પાઇલોટ્સમાં ઓછી તકેદારી જ્યારે તેમનું વિમાન ઓટોપાયલટ પર ઉડતું હોય છે.

મારી લેબમાં થયેલા અસંખ્ય અભ્યાસોએ દર્શાવ્યું છે કે જ્યારે માણસને બદલે મશીનને ક્રિયાપ્રતિક્રિયાના સ્ત્રોત તરીકે ઓળખવામાં આવે છે, ત્યારે તે વપરાશકર્તાઓના મગજમાં એક માનસિક શોર્ટકટ ટ્રિગર કરે છે જેને આપણે "મશીન હ્યુરિસ્ટિક્સ" કહીએ છીએ. " . આ લઘુલિપિ એવી માન્યતા છે કે મશીનો સચોટ, ઉદ્દેશ્ય, નિષ્પક્ષ, અચૂક વગેરે છે. તે વપરાશકર્તાના ચુકાદાને ઢાંકી દે છે અને વપરાશકર્તાને મશીનો પર વધુ પડતો વિશ્વાસ કરે છે. જો કે, AI ની અપૂર્ણતા વિશે લોકોને માત્ર ભ્રમિત કરવો પૂરતું નથી, કારણ કે જ્યારે ટેક્નોલોજી તેની ખાતરી આપતી નથી ત્યારે પણ મનુષ્ય અર્ધજાગૃતપણે પ્રાવીણ્ય ધારણ કરવા માટે જાણીતા છે.

સંશોધન પણ દર્શાવે છે કે લોકો કોમ્પ્યુટરને સામાજિક જીવો તરીકે માને છે જ્યારે મશીનો માનવતાનો સહેજ પણ સંકેત દર્શાવે છે, જેમ કે વાતચીતની ભાષાનો ઉપયોગ. આ કિસ્સાઓમાં, લોકો માનવીય ક્રિયાપ્રતિક્રિયાના સામાજિક નિયમો લાગુ કરે છે, જેમ કે સૌજન્ય અને પારસ્પરિકતા. તેથી જ્યારે કમ્પ્યુટર સંવેદનશીલ લાગે છે, ત્યારે લોકો તેમના પર આંધળો વિશ્વાસ કરે છે. AI ઉત્પાદનો આ વિશ્વાસને પાત્ર છે અને તેનું શોષણ ન કરે તેની ખાતરી કરવા માટે નિયમન જરૂરી છે.

AI એક અનન્ય પડકાર રજૂ કરે છે કારણ કે, પરંપરાગત એન્જિનિયરિંગ સિસ્ટમ્સથી વિપરીત, ડિઝાઇનર્સ ખાતરી કરી શકતા નથી કે AI સિસ્ટમ્સ કેવી રીતે કાર્ય કરશે. જ્યારે પરંપરાગત ઓટોમોબાઈલ ફેક્ટરીમાંથી બહાર નીકળી ત્યારે એન્જિનિયરો બરાબર જાણતા હતા કે તે કેવી રીતે પ્રદર્શન કરશે. પરંતુ સ્વ-ડ્રાઇવિંગ કાર, એન્જિનિયર્સ સાથે તેઓ ક્યારેય ખાતરી કરી શકતા નથી કે તેઓ નવી પરિસ્થિતિઓમાં કેવી રીતે વર્તે છે .

નવીનતાને નિયંત્રિત કરવામાં મુશ્કેલી

તાજેતરમાં, વિશ્વભરના હજારો લોકો તેમના સૂચનોના જવાબમાં GPT-4 અને DALL-E 2 જેવા મોટા જનરેટિવ AI મોડલ્સનું ઉત્પાદન કરે છે તે જોઈને આશ્ચર્ય પામ્યા છે. આ AI મોડલ્સના વિકાસમાં સામેલ કોઈપણ એન્જિનિયર તમને ચોક્કસ કહી શક્યા નથી કે આ મોડલ્સ શું ઉત્પાદન કરશે. બાબતોને જટિલ બનાવવા માટે, આ મોડેલો બદલાય છે અને ક્યારેય વધુ ક્રિયાપ્રતિક્રિયા સાથે વિકસિત થાય છે.

આ બધાનો અર્થ એ છે કે મિસફાયરની પૂરતી સંભાવના છે. તેથી, એઆઈ સિસ્ટમ્સ કેવી રીતે લાગુ કરવામાં આવે છે અને જ્યારે માનવીય સંવેદનાઓ અથવા સુખાકારીને નુકસાન થાય છે ત્યારે આશ્રય માટેની કઈ જોગવાઈઓ છે તેના પર ઘણું નિર્ભર છે. AI એ ફ્રીવેની જેમ ઇન્ફ્રાસ્ટ્રક્ચર છે. તમે તેને સામૂહિકમાં માનવ વર્તણૂકોને આકાર આપવા માટે ડિઝાઇન કરી શકો છો, પરંતુ તમારે દુર્વ્યવહાર, જેમ કે ઝડપ અને અણધારી ઘટનાઓ, જેમ કે અકસ્માતોનો સામનો કરવા માટે મિકેનિઝમ્સની જરૂર પડશે.

AI વિકાસકર્તાઓએ સિસ્ટમ કેવી રીતે વર્તે છે અને સામાજિક ધોરણો અને જવાબદારીઓના સંભવિત ઉલ્લંઘનની અપેક્ષા રાખવાનો પ્રયાસ કરી શકે છે તેની આગાહી કરવા માટે પણ અસાધારણ રીતે સર્જનાત્મક બનવાની જરૂર પડશે. આનો અર્થ એ છે કે નિયમનકારી અથવા ગવર્નન્સ ફ્રેમવર્કની આવશ્યકતા છે જે સમયાંતરે ઓડિટ અને AI પરિણામો અને ઉત્પાદનોની ચકાસણી પર આધાર રાખે છે, જો કે હું માનું છું કે આ ફ્રેમવર્કને એ પણ ઓળખવું જોઈએ કે સિસ્ટમ ડિઝાઇનર્સને હંમેશા ઘટનાઓ માટે જવાબદાર ઠેરવી શકાય નહીં.

"સોફ્ટ" અને "હાર્ડ" અભિગમોનું સંયોજન

કેસન શ્મિટ, જાહેર આરોગ્યના સહાયક પ્રોફેસર, ટેક્સાસ એ એન્ડ એમ યુનિવર્સિટી

કૃત્રિમ બુદ્ધિનું નિયમન કરવું જટિલ છે . AI ને સારી રીતે સમાયોજિત કરવા માટે, તમારે પહેલા કરવું પડશે defiનિશ AI અને AI ના અપેક્ષિત જોખમો અને ફાયદાઓને સમજો. Defiકાયદાને આધીન શું છે તે ઓળખવા માટે AI ને કાયદેસર બનાવવું મહત્વપૂર્ણ છે. પરંતુ AI ટેક્નોલોજી હજુ પણ વિકસિત થઈ રહી છે, તેથી તે મુશ્કેલ છે defiએક સમાપ્ત કરો defiસ્થિર કાનૂની વ્યાખ્યા.

AI ના જોખમો અને ફાયદાઓને સમજવું પણ મહત્વપૂર્ણ છે. સારા નિયમનથી જોખમો ઘટાડીને જાહેર લાભો વધારવા જોઈએ. જો કે, AI એપ્લીકેશન્સ હજુ પણ ઉભરી રહી છે, તેથી ભવિષ્યમાં શું જોખમો અથવા ફાયદાઓ હોઈ શકે છે તે જાણવું કે અનુમાન લગાવવું મુશ્કેલ છે. આ પ્રકારની અજાણ્યાઓ AI જેવી ઉભરતી ટેક્નોલોજીને અત્યંત મહત્ત્વપૂર્ણ બનાવે છે નિયમન કરવું મુશ્કેલ પરંપરાગત કાયદાઓ અને નિયમો સાથે.

ધારાશાસ્ત્રીઓ છે સંતુલિત કરવા માટે ઘણી વાર ખૂબ ધીમું ઝડપથી બદલાતા ટેકનોલોજીકલ વાતાવરણમાં. કોઈને નવા કાયદા તેઓ જારી કરવામાં આવે તે સમયે અપ્રચલિત છે અથવા એક્ઝિક્યુટિવ બનાવ્યું. નવા કાયદા, નિયમનકારો વિના તેઓએ જૂના કાયદાનો ઉપયોગ કરવો પડશે સામનો કરવા માટે નવી સમસ્યાઓ . ક્યારેક આ તરફ દોરી જાય છે કાનૂની અવરોધો પ્રતિ સામાજિક લાભો o કાનૂની છટકબારીઓ પ્રતિ હાનિકારક વર્તન .

નરમ કાયદો

આ "નરમ કાયદો વિશિષ્ટ ઉલ્લંઘનોને રોકવાના હેતુથી પરંપરાગત "હાર્ડ લો" કાયદાકીય અભિગમોનો વિકલ્પ છે. નરમ કાયદાના અભિગમમાં, ખાનગી સંસ્થા સ્થાપિત કરે છે નિયમો અથવા ધોરણો ઉદ્યોગના સભ્યો માટે. આ પરંપરાગત કાયદા કરતાં વધુ ઝડપથી બદલાઈ શકે છે. તે બનાવે છે આશાસ્પદ નરમ કાયદા ઉભરતી ટેક્નોલોજીઓ માટે કારણ કે તેઓ ઝડપથી નવી એપ્લિકેશનો અને જોખમોને સ્વીકારી શકે છે. જો કે, નરમ કાયદાનો અર્થ નરમ અમલીકરણ થઈ શકે છે .

મેગન ડોઅર , જેનિફર વેગનર e io (કેસન શ્મિટ) અમે ત્રીજી રીત પ્રસ્તાવિત કરીએ છીએ: ટ્રસ્ટેડ એન્ફોર્સમેન્ટ (CAITE) સાથે કોપીલેફ્ટ AI . આ અભિગમ બૌદ્ધિક સંપત્તિમાં બે ખૂબ જ અલગ ખ્યાલોને જોડે છે: લાઇસન્સ copyleft e patent troll.

ડાબી બાજુના લાયસન્સની નકલ કરો

લાઇસન્સ copyleft તમને ઓપન સોર્સ સોફ્ટવેર જેવા લાયસન્સની શરતો હેઠળ સામગ્રીનો સરળતાથી ઉપયોગ, પુનઃઉપયોગ અથવા ફેરફાર કરવાની મંજૂરી આપે છે. મોડલ CAITE લાઇસન્સનો ઉપયોગ કરો copyleft AI વપરાશકર્તાઓને ચોક્કસ નૈતિક દિશાનિર્દેશોનું પાલન કરવાની જરૂર છે, જેમ કે પૂર્વગ્રહની અસરનું પારદર્શક મૂલ્યાંકન.

અમારા મૉડલમાં, આ લાઇસન્સ લાઇસન્સના ઉલ્લંઘનને લાગુ કરવાના કાનૂની અધિકારને વિશ્વસનીય તૃતીય પક્ષને પણ ટ્રાન્સફર કરે છે. આ એક અમલીકરણ એન્ટિટી બનાવે છે જે ફક્ત AI નૈતિક ધોરણોને લાગુ કરવા માટે અસ્તિત્વમાં છે અને અનૈતિક વર્તણૂક માટે દંડ દ્વારા ભાગરૂપે ભંડોળ પૂરું પાડી શકાય છે. આ એન્ટિટી એ જેવી છે patent troll કારણ કે તે સરકારી હોવાને બદલે ખાનગી છે અને તે અન્ય લોકો પાસેથી એકત્રિત કરે છે તે કાયદાકીય બૌદ્ધિક સંપદા અધિકારોને લાગુ કરીને પોતાને સમર્થન આપે છે. આ કિસ્સામાં, નફા માટે દોડવાને બદલે, એન્ટિટી નૈતિક માર્ગદર્શિકા લાગુ કરે છે defiલાઇસન્સ માં રાત્રે.

આ મોડલ સતત બદલાતા AI વાતાવરણની જરૂરિયાતોને પહોંચી વળવા માટે લવચીક અને સ્વીકાર્ય છે. તે પરંપરાગત સરકારી નિયમનકાર જેવા નોંધપાત્ર અમલીકરણ વિકલ્પોની પણ મંજૂરી આપે છે. આ રીતે, તે AI ના અનન્ય પડકારોનો સામનો કરવા માટે સખત અને નરમ કાયદાના અભિગમોના શ્રેષ્ઠ ઘટકોને જોડે છે.

પૂછવા માટેના ચાર મુખ્ય પ્રશ્નો

જ્હોન વિલાસેનર, ઇલેક્ટ્રિકલ એન્જિનિયરિંગ, કાયદો, જાહેર નીતિ અને વ્યવસ્થાપનના પ્રોફેસર, કેલિફોર્નિયા યુનિવર્સિટી, લોસ એન્જલસ

આ અસાધારણ તાજેતરની પ્રગતિ મોટી ભાષામાં મોડેલ-આધારિત જનરેટિવ AI નવા AI-વિશિષ્ટ નિયમન બનાવવાની માંગને વેગ આપે છે. તમારી જાતને પૂછવા માટે અહીં ચાર મુખ્ય પ્રશ્નો છે:

1) શું AI માટે નવા ચોક્કસ નિયમનની જરૂર છે? 

AI સિસ્ટમના ઘણા સંભવિત સમસ્યારૂપ પરિણામોને હાલના ફ્રેમવર્ક દ્વારા પહેલેથી જ સંબોધવામાં આવ્યા છે. જો બેંક દ્વારા લોન અરજીઓનું મૂલ્યાંકન કરવા માટે ઉપયોગમાં લેવાતા AI અલ્ગોરિધમનો ઉપયોગ વંશીય ભેદભાવપૂર્ણ ધિરાણના નિર્ણયો તરફ દોરી જાય છે, તો તે ફેર હાઉસિંગ એક્ટનું ઉલ્લંઘન કરશે. જો ડ્રાઇવર વિનાની કારમાં AI સોફ્ટવેર અકસ્માતનું કારણ બને છે, તો ઉત્પાદન જવાબદારી કાયદો ઉપાયોને અનુસરવા માટેનું માળખું .

2) સમયના સ્નેપશોટના આધારે ઝડપથી વિકસતી ટેક્નોલોજીને નિયંત્રિત કરવાના જોખમો શું છે? 

આનું ઉત્તમ ઉદાહરણ છે સંગ્રહિત સંચાર અધિનિયમ , જે ઈમેલ જેવી તત્કાલીન નવીન ડિજિટલ કોમ્યુનિકેશન ટેક્નોલોજીને સંબોધવા માટે 1986માં ઘડવામાં આવી હતી. SCA ઘડવામાં, કોંગ્રેસે 180 દિવસ કરતાં જૂના ઈમેલ માટે નોંધપાત્ર રીતે ઓછી ગોપનીયતા સુરક્ષા પ્રદાન કરી છે.

તર્ક એ હતો કે મર્યાદિત સ્ટોરેજનો અર્થ એ છે કે લોકો નવા સંદેશાઓ માટે જગ્યા બનાવવા માટે જૂના સંદેશાઓને કાઢી નાખીને સતત તેમના ઇનબોક્સને સાફ કરી રહ્યાં છે. પરિણામે, 180 દિવસથી વધુ સમય માટે આર્કાઇવ કરેલા સંદેશાઓ ગોપનીયતાના પરિપ્રેક્ષ્યમાં ઓછા મહત્વના માનવામાં આવતા હતા. તે અસ્પષ્ટ છે કે આ તર્કનો ક્યારેય અર્થ થયો કે કેમ, અને તે ચોક્કસપણે 20 ના દાયકામાં અર્થપૂર્ણ નથી, જ્યારે અમારા મોટાભાગના ઇમેઇલ્સ અને અન્ય આર્કાઇવ કરેલા ડિજિટલ સંચાર છ મહિના કરતાં વધુ જૂના છે.

સમય જતાં એક જ સ્નેપશોટ પર આધારિત ટેક્નોલોજીના નિયમન અંગેની ચિંતાઓનો સામાન્ય પ્રતિભાવ આ છે: જો કોઈ કાયદો અથવા નિયમન અપ્રચલિત થઈ જાય, તો તેને અપડેટ કરો. તે પૂર્ણ કરતાં કહ્યું સરળ છે. મોટાભાગના લોકો સંમત છે કે SCA દાયકાઓ પહેલા અપ્રચલિત થઈ ગયું હતું. પરંતુ કારણ કે કોંગ્રેસ 180-દિવસની જોગવાઈને કેવી રીતે સુધારવી તે અંગે ખાસ સંમત થઈ શકી ન હતી, તે હજી પણ એક સદીના ત્રીજા ભાગથી વધુ પુસ્તકો પર છે પછી તે ઘડવામાં આવી હતી.

3) સંભવિત અનિચ્છનીય પરિણામો શું છે? 

Il રાજ્યો અને પીડિતોને ઓનલાઈન સેક્સ ટ્રાફિકિંગ એક્ટ 2017 સામે લડવાની મંજૂરી આપો તે 2018 માં પસાર થયેલ કાયદો હતો જેને તેણે સુધાર્યો હતો કલમ 230 સેક્સ ટ્રાફિકિંગ સામે લડવાના ઉદ્દેશ્ય સાથે કોમ્યુનિકેશન ડીસેન્સી એક્ટ. જ્યારે એવા ઓછા પુરાવા છે કે તેણે સેક્સ ટ્રાફિકિંગમાં ઘટાડો કર્યો છે, તેણે એ અત્યંત સમસ્યારૂપ અસર લોકોના અલગ જૂથ પર: સેક્સ વર્કર્સ કે જેઓ જોખમી ગ્રાહકો વિશે માહિતીની આપલે કરવા માટે FOSTA-SESTA દ્વારા ઑફલાઇન લેવામાં આવેલી વેબસાઇટ્સ પર આધાર રાખે છે. આ ઉદાહરણ સૂચિત નિયમોની સંભવિત અસરોને વ્યાપક રીતે જોવાનું મહત્વ દર્શાવે છે.

4) આર્થિક અને ભૌગોલિક રાજકીય અસરો શું છે? 

જો યુ.એસ.માં નિયમનકારો AI માં ઇરાદાપૂર્વકની પ્રગતિ ધીમી કરવા માટે પગલાં લે છે, તો તે રોકાણ અને નવીનતાને દબાણ કરશે - અને પરિણામે રોજગાર સર્જન - અન્યત્ર. જ્યારે ઉભરતી AI ઘણી ચિંતાઓ ઊભી કરે છે, ત્યારે તે જેવા ક્ષેત્રોમાં મોટા લાભો લાવવાનું વચન પણ આપે છે સૂચના , દવા , ઉત્પાદન , પરિવહન સલામતી , કૃષિ , હવામાનશાસ્ત્રની આગાહી , કાનૂની સેવાઓની ઍક્સેસ અને વધુ.

હું માનું છું કે ઉપરોક્ત ચાર પ્રશ્નોને ધ્યાનમાં રાખીને તૈયાર કરાયેલા AI નિયમો તેના લાભોની પહોંચ સુનિશ્ચિત કરતી વખતે AI ના સંભવિત નુકસાનને સફળતાપૂર્વક સંબોધિત કરશે.

આ લેખ શૈક્ષણિક નિષ્ણાતોના જ્ઞાનને વહેંચવા માટે સમર્પિત સ્વતંત્ર બિન-લાભકારી સમાચાર સંસ્થા ધ કન્વર્સેશનમાંથી મુક્તપણે ઉતારવામાં આવ્યો છે.

સંબંધિત વાંચન

BlogInnovazione.it

ઇનોવેશન ન્યૂઝલેટર
નવીનતા પરના સૌથી મહત્વપૂર્ણ સમાચારને ચૂકશો નહીં. તેમને ઇમેઇલ દ્વારા પ્રાપ્ત કરવા માટે સાઇન અપ કરો.

તાજેતરના લેખો

બાળકો માટે રંગીન પૃષ્ઠોના ફાયદા - તમામ ઉંમરના લોકો માટે જાદુની દુનિયા

રંગ દ્વારા સુંદર મોટર કૌશલ્ય વિકસાવવાથી બાળકોને લેખન જેવી વધુ જટિલ કુશળતા માટે તૈયાર કરવામાં આવે છે. રંગ કરવા માટે…

2 મે 2024

ભાવિ અહીં છે: શિપિંગ ઉદ્યોગ વૈશ્વિક અર્થતંત્રમાં કેવી રીતે ક્રાંતિ લાવી રહ્યો છે

નૌકાદળ ક્ષેત્ર એ સાચી વૈશ્વિક આર્થિક શક્તિ છે, જેણે 150 અબજના બજાર તરફ નેવિગેટ કર્યું છે...

1 મે 2024

પ્રકાશકો અને OpenAI આર્ટિફિશિયલ ઇન્ટેલિજન્સ દ્વારા પ્રક્રિયા કરાયેલ માહિતીના પ્રવાહને નિયંત્રિત કરવા માટે કરાર પર હસ્તાક્ષર કરે છે

ગયા સોમવારે, ફાઇનાન્શિયલ ટાઇમ્સે OpenAI સાથેના સોદાની જાહેરાત કરી હતી. FT તેના વિશ્વ કક્ષાના પત્રકારત્વને લાઇસન્સ આપે છે...

30 એપ્રિલ 2024

ઓનલાઈન ચુકવણીઓ: સ્ટ્રીમિંગ સેવાઓ તમને કાયમ માટે કેવી રીતે ચૂકવણી કરે છે તે અહીં છે

લાખો લોકો સ્ટ્રીમિંગ સેવાઓ માટે ચૂકવણી કરે છે, માસિક સબ્સ્ક્રિપ્શન ફી ચૂકવે છે. સામાન્ય અભિપ્રાય છે કે તમે…

29 એપ્રિલ 2024

તમારી ભાષામાં ઇનોવેશન વાંચો

ઇનોવેશન ન્યૂઝલેટર
નવીનતા પરના સૌથી મહત્વપૂર્ણ સમાચારને ચૂકશો નહીં. તેમને ઇમેઇલ દ્વારા પ્રાપ્ત કરવા માટે સાઇન અપ કરો.

અમને અનુસરો