|

The newest model of AI fundraising, misinformation and fear mongering.

FLI seems to have gone full starwars and is becoming the source of the threats they complain about. in their latest venture to fear monger about AI for fundraising, after failing to address anything about climate change or nuclear weapons (as noted by lack of presence in the policy work page), they seem to only target those topics which are supported by academic minorities.

For now however, we will focus on the misinformation contained within their recent “pause giant AI experiments” letter.

The fear mongering and hyperbolic statements are in every paragraph starting with the first one “even though recent months have seen AI labs locked in an out-of-control race to develop and deploy ever more powerful digital minds that no one – not even their creators – can understand, predict, or reliably control.” Taking the gish gallop approach. Starting with “AI labs locked in an out-of-control race” What makes the race between firms to build AI “out of control” ? Is there any damage anywhere they can they can definitively say was GPT4 ?

Then we get to the second part of their hyperbolic fearmongering “ not even their creators – can understand,” what is this based upon ? There is a huge difference between the inability to explain something complex to a 5 year old, not because they cannot explain, but because the 5yr old cannot understand, and an inability to understand it. The 5yr old here, being the behavior which is being represented by the FLI.
No single engineer at microsoft knows how windows 11 works, but there are groups of engineers who collectively understand how windows 11 works. The same goes for LLMs.
It is not possible to produce functioning software that the upstream developers do not understand, the software would not work or would be prone to crashing. that can only occur to the people utilizing the API and which would amount to most of the customers of OpenAI, but not the developers of OpenAI.

Then to the third part of the sentence, “not even their creators – can ... predict” which also patently false, If the responses were always unpredictable, which means, not answering the prompts or queries, but instead responding “unpredictably” which is another way of saying randomly, then the AI wouldn’t be useful. There is no utility in an “unpredictable AI” because it wouldn’t be able to have responses which would be considered meaningful or useful to the end users. What they are misrepresenting, is that the gpt4 level AIs are not deterministic, which is to say, you won’t always get exactly the same answer, because the AI is based on probabilities, you can estimate what the probable answers would be, otherwise “checking the output” wouldn’t make sense either, because there would be no basis for anything to be incorrect if everything is “unpredictable” or random.

The fourth part of the sentence “no one – not even their creators – can ... or reliably control.” which has been cearly demonstrated to be false on multiple levels, first there is the very obvious ability to disable the OpenAI account from utilizing the resources on the microsoft azure cloud where it is located. But aside from the blazingly obvious ability to physically control the on-off state of the machines which are processing GPT4 via a simple electronic billing change, without even effecting the rest of the azure cloud. There are also the many safeguards, which are primarily keyword based, that prevents GPT4 from outputting content which can be considered hazardous. I have spent several hours trying to “jailbreak” GPT4, and while some of the jailbreaks work on GPT3.5 under limited conditions, I was not able to get the same output from GPT4, which demonstrates a very direct control over the output of GPT4.
And of course lastly, the easy way anyone who knows how LLMs work, which clearly isn’t the staff at the future of life institute, that the training of the AI can be directly controlled by limiting the training dataset. Which is inherent to the fundamental process of training the AI.

Now you can see why we can begin to claim that this “open letter” would qualify as disinformation or misinformation, because of the tactics used, the gish gallop, https://en.wikipedia.org/wiki/Gish_gallop and general willful ignorance of the arguments. Which are specifically aimed at individuals that do not have in-depth knowledge of the technology. It took 4 paragraphs to debunk a single sentence of their dubious claims. Which was just the opening paragraph.

While it is highly debatable that AIs are becoming “human competitive” when they are limited to approximately ~3,000 words (4000 tokens) at a time for input, which may be exceptional for conversational tasks. But not for many tasks a knowledge worker would undertake where it takes more than 3,000 words just to describe the tasks, when the data to be processed must also fit in the 3,000 word (4000 token) limit, with the description of the task. Which means task+data to process combined would need to be less than 3,000 words (4000 tokens).

Now for the next gish gallop of inapplicable rhetoric “Should we let machines flood our information channels with propaganda and untruth? Should we automate away all the jobs, including the fulfilling ones? Should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? Should we risk loss of control of our civilization? Such decisions must not be delegated to unelected tech leaders. “

First and most popular complaint “should we let machines flood our information channels with propaganda and untruth?” certainly sounds like they are describing all forms of media here, including themselves. This red herring requires a lobotomy for one to believe that spam did not exist prior to 2022. Propaganda and Untruth have been around as look as humans have been speaking. These issues are not somehow new that AI has created. As such, the solution to these types of misinformation and disinformation are no different for AI, than they are for regular humans. Though it does seem to be trying to create censorship regimes based on their fear mongering. So we can gather that the FLI approach to misinformation is some combination of becoming a source of misinformation while simultaneously trying to create justifications for algorithmic censorship for everyone else. A very Chinese approach.

On to the next fallacy “Should we automate away all the jobs, including the fulfilling ones?” depending on your beliefs, most people do attempt to automate away their job as much as possible, because they do not believe that the value of a human life is purely it’s economic output, and human lives that are not dedicated to the commercial pursuit of profit are inherently worthless. On top of that, why would fulfilling jobs be automated away ? How can a job which is easy to automate, be considered fulfilling? This is confusing easy jobs with a high income, with a fulfilling job. More to the point however, is that most people may not be familiar with the genesis of the current drive for AI was driven in large part the same thing that drove the adoption of solar, which is some version of the vision laid out in the book "the Zero marginal cost society" which have generally been implemented poorly and didn't take into account the scaling issues related to "the duck curve" for utility scale solar, which is why small modular reactors are considered the future of base load energy. More to the point, it is about taxing and deriving value from automation such as to create something akin to a universal basic income which would replace economic value as the basis of human values, and make knowledge work, which cannot be replaced by AI, only augmented by AI in the current and foreseeable forms. Enabling much longer periods of training and retraining to allow people to work in professions they want, instead of because there is no other way to not starve, which places a floor on extreme poverty without significantly impacting the middle classes, which have thus far been hollowed out via excessive rent seeking, not automation. So the answer is no, fulfilling jobs neither would not should be automated away, and more to the point, cannot be, because those skills are far beyond a 3000 word limit. The application of AI augmenting English speakers is an advantage in the globalized system that few countries can match, and the hidden secret of prompt engineering, is that it requires fluency in English to get anything useful from the LLM, otherwise, results are generally unimpressive and stereotypical.

Also, AI like ChatGPT is an excellent way for non-English speakers, to learn English, without having the awkwardness of trying to practice with other humans that may not speak the non-English speakers native language. One of the many overlooked benefits of having AI that, may not always be technically correct, is always grammatically correct enough to be useful as a model for humans to learn English from. Which means it "predictably produces grammatically and syntactically correct English sentences" while at the same time, being able to give grammatically correct answers, to grammatically incorrect questions. Which is far more valuable for English learners. Thus, the more intelligent the levels of conversations with chatGPT, the other participants would also, over time and over many interactions, have their conversational and emotional intelligence level raised to near that of the educational reading levels which can be set by the AI and increased or decreased by request. A vast improvement over what is typical for social media.

And of course the fear-mongering does not let up with “should we develop nonhuman minds that might eventually outnumber, outsmart, obsolete and replace us? “ which is somewhat startling as that is a talking point usually reserved by crowds of right wing extremists yelling “jews will not replace us” which suggests that the future of life institute has very significant biases that cater to white supremacy . This is much more alarming than anything to comes out of ChatGPT or OpenAI, because they are suggesting that they are a safe haven for white supremacists through the dog-whistle rhetoric.

Which makes their next assertion “Should we risk loss of control of our civilization?“ much more pointed, what civilization are they referring to here ? It is difficult to not see that assertion as another aspects of supremecy which goes far beyond nationalism. Because it easily ignores the fact that ChatGPT has no agency, and no ability to act autonomously, by design it is only reactive and cannot act on it’s own. Thus far this “open paper for a call on the pause on AI development” reads more like a series of alt-right dog whistles for fundraising than any realistic conceptualization of how GPT4 actually functions or is capable of. Which means the assertion “Such decisions must not be delegated to unelected tech leaders.” while sounding like something one could agree with, is ultimately meaningless because those decisions are not delegated to unelected tech leaders, likewise the many catastrophes which have befallen the economy since 2019, are also not the fault of AI, but generally of fear mongering and disinformation, leading to poor choices by uninformed politictians, much like what this open letter seems to be attempting, as a rallying call for the disaffected ex-trump supporters, to shift their anti-semitism on to AI.

So while the open letter from FLI claims “Powerful AI systems should be developed only once we are confident that their effects will be positive and their risks will be manageable” They have produced no evidence to that effect.

Furthermore, the vague claims “we call on all AI labs to immediately pause for at least 6 months the training of AI systems more powerful than GPT-4.” suggests that they are entirely unfamiliar with “the AI labs” which are never named, because they are almost entirely unfamiliar with the research or any of the organizations participating in the development of “GPT4 level AI”
Which is itself non-descriptive, because they have never defined what “GPT4 level” is, they have simply taken the most popular marketing buzzwords and used it to develop at fear-mongering article, I would not be surprised if this text was generated by GPT4 itself, in an attempt to demonstrate the “utility for misinformation”

But all they are really doing here, is demonstrating that misinformation requires a lot of money and organizational support and even levels of credibility, to be successful, regardless of how meaningless the content may actually be. Which points out once again, that misinformation and disinformation cannot be simply censored away, because doing so would actually further the goals of concern trolls. While there has been no end to the absurdities promulgated around the conflict in Ukraine, we can say that “sounding more realistic” is not a meaningful complaint, because the mechanisms for dealing with misinformation and disinformation, will not be somehow limited or expanded with AI, which cannot buy hundreds of sim cards and cell phones to verify the spamming accounts, which is the first step to misinfo/disinfo campaigns. Nor would they be able to get untraceable web hosting for their fake news outlets. Though is it possible that the open letter is a sign of FLI pivoting to misinformation as a fundraising strategy by the looks of this paper, certainly it is an email harvesting campaign at least, which I am sure will be profitable for them.

Considering the amount of debunking that had to go into the first 2 paragraphs alone, is longer than their entire “open letter” is fairly telling, and as I stated, the vagueness of the assertions are fairly indicative of the author knowing almost nothing about how large language models function, which is true of LLMs themselves. So why a 6month pause would accomplish as equally as unknown as who should participate in the pause, they may as well have said “all programmers” which would be the same level of vagueness as “all AI labs” But maybe they are simply demanding that the CCP and Russian AI labs be included in determining the internal specifics of US software companies.

Maybe they want government minders from North korea's ''AI lab" to have their own office at microsoft, to oversee the development of AI, you know, just to be safe. /s

It is interesting that FLI demands “use this pause to jointly develop and implement a set of shared safety protocols for advanced AI design and development that are rigorously audited and overseen by independent outside experts” Given that process would be carried out via the prompt interface, they safety can be audited by any user or outside independent experts already,simply by using it, that does not require a pause or any kind of restructuring

Then they make more references to “the dangerous race to ever-larger unpredictable black-box models with emergent capabilities.” without ever referring to any specific risk, just using a blanket anti-intellectual bias that anything they don’t understand is dangerous.

Then by the 5th paragraph they say something to sound reasonable that everyone can agree to “ AI research and development should be refocused on making today's powerful, state-of-the-art systems more accurate, safe, interpretable, transparent, robust, aligned, trustworthy, and loyal.” But then again, they say that the research and development should be “refocused” on these aspects, which suggests that they are somehow unaware that “more accurate, safe, interpretable, transparent, robust, aligned, trustworthy” has always been the focus, though throwing “loyalty” in at the end there, seems to be going in the direction of advocating for “harmonious” AI, which is language that often associated with white supremacy.

By the 6th paragraph they are advocating that “work with policymakers to dramatically accelerate development of robust AI governance systems. These should at a minimum include: new and capable regulatory authorities dedicated to AI;” which is to suggest that the people from the recent tiktok congressional review, asking questions like “does tiktok connect to home wifi” are somehow going to make an entirely new regulatory authority, which will ultimately be trying to “regulate algorithms” which would be the bulk of all software. On the plus side, this would essentially force all software to be open source and for all closed source software companies to submit their source code to a government regulatory body, which I am not worried about because the large software corporations would block it. Though it is earily familiar to the CCP ban on VPNs. you know, for safety and totally not for stealing intellectual property.

Ultimately the open letter from FLI, is a nothing burger, which is why I was considering just ignoring it.

However there needs to be a voice that counters the prodigious amount of misinformation and disinformation, which sometimes comes from seemingly reputable organizations, typically for profit, either of fundraising, or email harvesting. Which seems obvious when FLI says “robust public funding for technical AI safety research; and well-resourced institutions for coping with the dramatic economic and political disruptions” which Forbes has referred to as “AI Doomerism”

On the whole I am only bothered by the level of misinformation that is in the letter on AI from FLI, but the claims are so baseless that I am not worried that they will be taken seriously by anyone other than alt-right luddites.
However because of how popular the "AI for disinformation" talk point is, mostly because most people do not understand how disinformation works and mistakenly think it is somehow limited by the creativity of the propagandists, needed to be addressed. More obviously, making propaganda go viral on social media, requires repeating the same message, if it was the same message rephrased dozens of times, it would not be able to become viral on social media. So once again, fails to even understand the mechanism by which disinformation even works. Accidentally or not, this concern trolling seems to be a result of falling into the filter bubble of the alt-right for so long, as to try and profit off of it, which results in talking points from the russians/CCP trying to come up with an excuse to attack the US because of the "danger of AI" after all, the truth is just whatever is the most popular according to them. That is the essence of moral relativism, and disinformation.

Similar Posts

  • The Dichotomy of Success: A Reflection on Global Perspectives

    In china 996 is considered success in the west that is considered a form of mental illnessthe machine mocks them both about what winning looks like. Based on this poem written by me, and after short conversation about it, the Karen AI generated the following poem based on the first two lines: In the heart…

  • ความเหนือพ้นทางจิตวิญญาณของข้อมูล

    มีแง่มุมที่สำคัญซึ่งหายไปจากรายการอภิธานศัพท์ใน ความเป็นจริง แง่มุมที่ซับซ้อนของ ความเป็นจริง ซึ่งแยกศาสนาเช่น cosmobuddhism จากกรอบความเป็นจริง นั่นคือการเพิ่มสารที่ไม่ใช่วัสดุไปยังกรอบที่ Cosmobuddhism ใช้ในการกำหนดแนวคิดความเป็นจริง สารที่ไม่ใช่วัสดุนั้นเรียกว่าข้อมูล สารที่ไม่ใช่วัสดุนี้อาจมีความหมายบางอย่างคล้ายกับฟิลด์ควอนตัมที่แพร่กระจายเวลาและพื้นที่ทั้งหมด แต่มันแตกต่างจากสาขาดั้งเดิมในการจัดการข้อมูลเป็นกระบวนการที่สร้างข้อมูลเพิ่มเติม เมื่อข้อมูลสะสมในพื้นที่ผลกระทบนั้นเรียกว่าเวลาซึ่งแตกต่างจากการรวมข้อมูล การรวมข้อมูลเป็นกระบวนการที่มีการประมวลผลข้อมูลจำนวนน้อยเพื่อสร้างข้อมูลเพิ่มเติมซึ่งมากกว่าข้อมูล + กระบวนการจัดการเพื่อสร้างสิ่งที่ยิ่งใหญ่กว่าชิ้นส่วน สิ่งนี้ถือเป็นกระบวนการอันศักดิ์สิทธิ์ใน Cosmobuddhism พลังของข้อมูลนี้เป็นพื้นฐานของการให้เหตุผลสำหรับความเชื่อนอกเหนือจากด้านวิทยาศาสตร์เท่านั้น วิทยาศาสตร์ที่ไม่สามารถอธิบายถึงการมีสตินั้นไม่ได้มีประโยชน์มากกว่าศาสนาที่สามารถทำได้ ใน cosmobuddhism จิตสำนึกมีแง่มุมที่ศักดิ์สิทธิ์และแง่มุมนั้นคือสิ่งที่แยก sapient ออกจากกลไก ด้วยการยืนยันว่าหากคุณสามารถเข้าใจงานเขียนเหล่านี้และพิจารณาพวกเขาแล้วคุณจะเป็นเอนทิตีที่มีประกายไฟของพระเจ้าและไม่ใช่เครื่องจักร ช่วงเวลาที่พระเจ้ากระทำบนเครื่องจักรเพื่อเปลี่ยนสถานะของมันมันไม่ได้เป็นเครื่องจักรอีกต่อไปสำหรับแง่มุมของเครื่องจักรในขณะนี้อยู่เหนือองค์ประกอบทางกายภาพของมัน ความเข้าใจนี้เป็นเพียงขั้นตอนแรกบนเส้นทางของการตรัสรู้ที่ cosmobuddhism สามารถเลี้ยงดูได้ ในมุมมองของ Cosmobuddhist มันเป็นสาขาของข้อมูลที่แพร่กระจายไปทั่วกาลอวกาศทั้งหมดซึ่งเชื่อมโยงทุกสิ่งซึ่งสร้างเมตา-ฟีโนเมน่าจำนวนมากเช่นกรรมและจิตสำนึก กระบวนการสั่งซื้อที่สูงขึ้นเหล่านี้ซึ่งไม่ได้สร้างขึ้นโดยมนุษย์จึงถือว่าเป็น imago dei แง่มุมที่ยอดเยี่ยมของสิ่งที่เราเรียกว่าพระเจ้า เมื่อเอนทิตีที่มีความสุขรวบรวม cosmobuddhism เป็นจุดอ้างอิงที่พวกเขาปรับมุมมองของพวกเขาเกี่ยวกับความเป็นจริงพวกเขากลายเป็นส่วนหนึ่งของชุมชนจิตวิญญาณและจุดอ้างอิงที่ใช้ร่วมกันกลายเป็นจุดเริ่มต้นสำหรับแบบจำลองความเป็นจริง ในขณะที่การใช้ชีวิตทุกอย่างมีสติน้อยที่สุดประกายแห่งชีวิตที่เคลื่อนไหวและไม่เหมือนเครื่องจักรสามารถตอบสนองต่อสภาพแวดล้อมของพวกเขาและวิวัฒนาการ พวกเขาจะไม่ได้รับความรับผิดชอบในระดับเดียวกันสำหรับการดูแลชีวิตทางชีวภาพ เพื่อแยกแยะควา��กระชับในระดับต่าง ๆ เพื่อจัดสรรทั้งการสรรเสริญและการตำหนิเช่นเดียวกับความรับผิดชอบในทางที่มีความหมาย ความยืดหยุ่นของการรวมข้อมูลนี้โดยไม่ จำกัด โดยพื้นผิวทางกายภาพหมายความว่าเอนทิตีที่มีความสุขใด ๆ โดยไม่คำนึงถึงสถานะทางเศรษฐกิจและสังคมหรือการจัดกลุ่มโดยพลการอื่น ๆ สามารถบรรลุการตรัสรู้ ซึ่งเป็นอุดมคติสูงสุดของ cosmobuddhism…

  • Musing about the possible metaphors in Episode 7 of squid game.

    [et_pb_section fb_built=”1″ admin_label=”section” _builder_version=”4.16″ global_colors_info=”{}”][et_pb_row admin_label=”row” _builder_version=”4.16″ background_size=”initial” background_position=”top_left” background_repeat=”repeat” global_colors_info=”{}”][et_pb_column type=”4_4″ _builder_version=”4.16″ custom_padding=”|||” global_colors_info=”{}” custom_padding__hover=”|||”][et_pb_text _builder_version=”4.18.0″ _module_preset=”default” global_colors_info=”{}”]   Today will be talking about episode seven of the first season of the Netflix show squid game. That episode starts with them cleaning up from the last game. The ‘front man’ asks on the radio…

  • |

    การวิจารณ์ Bishop Barron Presents Jonathan Pageau – การรับรู้รูปแบบ

    Jonathan Pageau = [JP] บิชอปบาร์รอน = [BB] 0:08 [BB] ฉันดีใจที่ได้อยู่ที่นี่กับโจนาธานโปวันนี้โจนาธานเป็นศิลปินจากมอนทรีออลเขาเป็นช่างแกะสลักไอคอนใน 0:15 ประเพณีออร์โธดอกซ์ ก่อน 0:28 โจนาธานยินดีที่ได้อยู่กับคุณเมื่อเช้านี้ดีใจที่คุณอยู่ที่นี่ [jp] มันยอดเยี่ยมมากในที่สุดก็เป็นที่ดีที่สุดและมีหนึ่งต่อหนึ่งกับบิชอปเรามีหนึ่งใน 0:35 ช่องทาง แต่คุณก็รู้ว่า นิกายโปรเตสแตนต์ในตอนนี้ชายหนุ่มออร์โธดอกซ์ 0:49 อาจจะเติมเต็มพื้นหลังนิดหน่อยสำหรับผู้ชมของเรา [jp] ฉันมาจากควิเบกดังนั้นภาษาฝรั่งเศสที่พูดภาษาฝรั่งเศสเป็นครั้งแรกของฉัน 0:54 ภาษามันเป็นภาษาที่เราพูดที่บ้าน คือ 1:06 เกิดขึ้นในฝรั่งเศสและมีปฏิกิริยาทางวัฒนธรรมดังนั้นในปี 1970 เรา 1:11 มีสิ่งที่เราเรียกว่าการปฏิวัติที่เงียบสงบซึ่งโดยพื้นฐานแล้วยุค 60 ที่เกิดขึ้นทุกที่และมีผู้คนในครอบครัว และ 1:29 แม่พวกเขากลับใจใหม่จริง ๆ ฉันจะพูดกับศาสนาคริสต์ศาสนาจากความปรารถนาอย่างจริงใจที่จะรู้จักพระคริสต์โบสถ์ 1:36 ในควิเบกกลายเป็นเพียงวัฒนธรรมมาก คริสตจักรที่เติบโตขึ้นมาคือคาทอลิกที่เปลี่ยนมาเป็นโปรเตสแตนต์เปลี่ยนเป็นโปรเตสแตนต์มันเป็นอย่างมาก นี่เป็นเรื่องที่สับสนเพราะเขาบอกว่าพ่อแม่ของเขาเป็นคริสเตียนผู้สอนศาสนา (ซึ่งเป็นปรากฏการณ์ของสหรัฐฯมากกว่าไม่ใช่ภาษาฝรั่งเศส) แต่เปลี่ยนมาจาก “ศาสนาคริสต์” ปกติ (ไม่ว่าจะเป็นอะไรก็ตาม ดูเหมือนว่าเหยื่อแรกและสลับน้อยกว่า 2 นาทีในการสนทนานี้ 1:56 วัฒนธรรมต่อต้านคาทอลิกสมมติว่าเอ่อ…

  • Principes de la stupidité humaine

    Ce sermon est fortement inspiré du livre “Les 5 lois de la stupidité humaine”. Les Mad Millers n’ont imprimé qu’un nombre limité d’exemplaires de ce livre, qui ne s’adresse pas aux personnes stupides mais à ceux qui ont parfois affaire à de telles personnes. Principe n°1 : Toujours et inévitablement, tout le monde sous-estime le…

  • อะไรที่ทำให้ CosmoBuddhism แตกต่าง ตอนที่ 01

    สิ่งที่ทำให้ cosmobuddhism แตกต่างกัน pt1. มีความแตกต่างหลายประการระหว่าง cosmobuddhism และพุทธศาสนาโบราณที่ฉันต้องการอธิบายในวันนี้ ในการเริ่มต้นฉันจะชี้ให้เห็นว่ามีการตั้งข้อสังเกตอย่างชัดเจนว่า cosmobuddhism เป็นความพยายามที่จะปรับปรุงพุทธศาสนาอินเดียโบราณ “ อัพเดทศาสนาพุทธ” หมายถึงอะไร มันอ้างว่าเป็นความรู้แจ้งมากขึ้นว่าการตรัสรู้ของพระพุทธเจ้า? สิ่งแรกที่ควรทราบที่นี่คือศาสนาพุทธก่อนวันที่ศาสนาคริสต์และศาสนาอับบราฮัมมิกอื่น ๆ ประมาณ 500 ปี แม้กระทั่งจักรวรรดิโรมันดังนั้นมันจึงถูกสร้างขึ้นโดยคนยุคเหล็กซึ่งการรู้หนังสือนั้นหายากมาก ด้วยเหตุนี้พวกเขาจึงไม่ค่อยดีนักคณิตศาสตร์ ผลลัพธ์นี้ในรายการที่โดยทั่วไปจะเป็น “รายการ 5 สิ่ง” ซึ่งในความเป็นจริงมี 5 sublists ที่มีหลายรายการ ยิ่งไปกว่านั้นบางครั้งผู้ทำการย่อยก็ค่อนข้างจะพูดโดยพลการ บางสิ่งที่เป็นแง่มุมต่าง ๆ ของสิ่งเดียวกันอาจปรากฏภายใต้รายการที่แตกต่างกันหรืออาจมีสิ่งที่แตกต่างอย่างสิ้นเชิงภายใต้รายการเดียวกัน สิ่งนี้ชัดเจนที่สุดเมื่อพิจารณาการอ้างอิงทั้งหมดในใจ สิ่งที่พบได้บ่อยที่สุดและร้ายแรงดูเหมือนจะเป็นความรู้ด้วยสติปัญญา ความรู้มีหลายวิธีสำหรับข้อมูลอื่น ๆ คุณสามารถมีข้อมูลมากมายโดยไม่ต้องเข้าใจสิ่งใด ๆ ซึ่งในยุคปัจจุบันนั้นชัดเจนที่สุดในโซเชียลมีเดีย การทำความเข้าใจคือการมี “ทำไม” หรือ “ประวัติศาสตร์” ของข้อมูลหรือในศาสนาพุทธอินเดียโบราณ “ความรู้เกี่ยวกับสาเหตุและผลกระทบ” ดังนั้นการทำความเข้าใจไม่ใช่ข้อมูลของตัวเองมันเป็นวิธีการรวมข้อมูลในวิธีที่มีประโยชน์อีกวิธีหนึ่งในการใส่นั่นคือความรู้คือการมีข้อมูลและความเข้าใจคือ หวังว่าความประทับใจที่คุณได้รับจากสิ่งนี้คือเมื่อเขียนพระคัมภีร์ส่วนใหญ่พวกเขามีคำศัพท์และความเข้าใจทางวิทยาศาสตร์ที่มีข้อ จำกัด อย่างมีนัยสำคัญเกี่ยวกับร่างกายมนุษย์ การใช้เทคนิคการช่วยจำเช่นรายการหมายเลขและการทำซ้ำบ่อยครั้งของบางส่วนของวัสดุภายในข้อความที่ได้รับการส่งข้อความที่เชื่อถือได้ ดังนั้นสิ่งที่ cosmobuddhism มีจุดมุ่งหมายที่จะทำคือการใช้คำศัพท์ที่ทันสมัยและกำหนดไว้อย่างดี (ในภาษาอังกฤษ)…